Die Lösung für ein überflüssiges Problem – Überlegungen für einen Erderkundungssatelliten

Heute ein komplexeres Thema, ich erspare es mir auch alles vorzurechnen und verweise nur auf die Stellen in der Wikipedia, wo man die entsprechenden Formeln findet.

Wenn man einen Erdbeobachtungssatelliten designt, gibt es viele Dinge zu beachten, ich will mich auf die folgenden konzentrieren:

  1. In welchem Orbit soll er landen?
  2. Wie schwer wird die Optik?
  3. Kann ich die gewünschte Datenmenge gewinnen und speichern?
  4. Kann ich die Daten auch an den Boden übertragen, bevor ich neue Daten gewinne?

Alle Teile hängen zusammen und um das zu veranschaulichen will ich zwei fiktive Projekte untersuchen, die es so nicht gibt und wahrscheinlich auch nicht geben wird. Bei beiden bin ich an der maximalen Auflösung die technisch möglich ist interessiert.

  • Projekt 1 ist ein Erderkundungssatellit, der farbige Bilder der Erde anfertigt – allerdings täglich, das heißt, er muss die ganze Erdoberfläche in einem Tag abtasten.
  • Projekt 2 ist ein multispektraler Satellit mit 256 Spektralkanälen, der alle 14 Tage die ganze Erdoberfläche abdeckt.

Der Orbit

Das Erste festzulegende ist der Orbit. Man wird meist nicht einen genauen Orbit bestimmen können, weil es ja noch andere Einschränkungen gibt. Aber man wird Randbedingungen setzen können bzw. die Auswahl auf einen bestimmten Bereich einschränken können.

Bei hochauflösenden Satelliten ist es relativ einfach: Die Auflösung diktiert die Größe der Optik und wenn diese gewichtsbestimmend, wird den Orbit. Worldview 3 und 4 haben 0,31 m theoretische Auflösung. Sie brauchen daher in ihren Orbit schon ein Teleskop mit mehr als 1 m Durchmesser das so groß ist, das man den Satellit dann um es herum baut. Umgekehrt kann man aus Höhe der ISS mit einer normalen Spiegelreflexkamera Aufnahmen mit unter 40 m Auflösung gewinnen.

Man wird den erdnächsten nutzbaren Orbit nehmen. Nutzbar heißt: die Orbithöhe sollte mit den verfügbaren Treibstoffvorräten über die geplante Betriebsdauer aufrechterhalten blieben. Durch die Atmosphäre wird der Satellit dauernd abgebremst. Immerhin: Schon in 500 km Höhe beträgt die Lebensdauer mindestens ein Jahrzehnt. Eine weitere Einschränkung (bei hochauflösenden Satelliten) ist dann nur noch die Revisitzeit, siehe unten.

Bei dem global abbildenden Satelliten gibt es eine andere Einschränkung: Die Erdoberfläche sollte unverzerrt abgebildet werden. Da gibt es zuerst Einschränkungen bei der Optik. Jeder der ein extremes Weitwinkelobjektiv sein eigen nenn kennt das – es gibt das Problem der Bildfeldwölbung. Ausgehend von der Bildmitte wird das Bild mehr und mehr zum Rand hin verzerrt. Gerade Linien wie Regalböden werden zu Bögen. Mit der Formel für den Bildwinkel kann man den Winkel einer Optik berechnen, deren Brennweite und Sensordurchmesser bekannt ist. In der normalen Fotografie sind 35 mm Brennweite (Durchmesser des KB-Formates: 43 mm) der höchste Bildwinkel, der tolerierbar ist ohne Verzeichnungen. Das entspricht 63 Grad. Bei der Erdbeobachtung wird man einen kleineren Winkel anstreben, denn die Erdoberfläche ist ja nicht flach. Bedingt durch die Kugelform ist schon alleine deswegen der Blick um so verzerrter je weiter man vom Nadirpunkt wegrückt. Der Nadirpunkt ist definiert als die kürzeste Verbindung von Erdboden und Satellit, es ist eine Linie, die direkt zum Erdmittelpunkt geht. Das ist der Fußpunkt, den der Satellit gerade überfliegt, wenn er senkrecht nach unten auf die Erdoberfläche schaut. Ich habe hier mal 30 Grad als das Maximum angesehen. Das ist für den global in einem Tag kartierenden Satelliten eine Grenzbedingung.

Dazu eine Erläuterung: jeder Satellit umkreist n-mal pro Tag die Erde. Gleichzeitig dreht sie such um ihre eigene Achse. Bei einem niedrigen Orbit kommt man auf 15 bis 16 Umläufe pro Tag. Pro Umlauf hat sich die Erde (bei 15 Umläufen) um 24 Grad weiter gedreht, wenn der Satellit den Äquator überquert. Das sind rund 5000 km. Es kommt noch schlimmer: Da der Satellit ja pro Umlauf einmal um die Erde fliegt, hat er beim ersten Umlauf nicht nur den 0 ten, sondern auch den 180-sten Breitengrad überflogen – wobei allerdings eine Seite immer auf der Nachtseite liegt. Er kann zumindest im Infraroten so theoretisch die gesamte Erde in 12 Stunden erfassen. So der Sachverhalt bei einem Satelliten, der eine Umlaufszeit hat, die einem ganzzahligen Bruchteil der Erdrotation (86164 s) beträgt. Bei jedem anderen ist n eine gebrochene Zahl z. B. 14,875 Umläufe/Tag. Beim letzten Umlauf fehlen dann noch 0,125 Umläufe für eine gerade Zahl, das sind am Äquator 334 km. Um diese Strecke verschiebt sich der Fußpunkt jeden Tag. Nach genau 8 Tagen hat man wieder den einen fehlenden Umlauf aufgeholt. Mit dieser Strategie kann man so die Erde in 8 Tagen komplett erfassen, in 626 km breiten Streifen. Bei 14 Tagen wäre der Bruchteil 1/14 und die Streifenbreite 191 km.

Für den ganztägig operierenden Satelliten streben wir daher einen ganzzahligen Teiler von Erdrotation und Umlaufszeit an. Beim zweiten Satelliten beträgt die Abweichung von der ganzen Zahl 1/14. Damit sind schon eine Menge Orbits ausgeschlossen. Das Nächste ist es dann das man die Erde weitestgehend verzerrungsfrei sehen muss. Wer auf einen Globus blickt, sieht das durch die Krümmung der Erdoberfläche man rasch einen verzerrten Blick bekommt. Experimentell ermittelt man schnell, dass wenn der Blickwinkel unter 20 Grad ist, die Verzerrung ignorierbar (um 5-6 %) ist. Für den alle 14 Tage abbildenden Satelliten ist das kein Problem, denn selbst aus einem nur 450 km hohen Orbit (darunter hat man eine zu geringe Lebensdauer) überschaut man einen Streifen von 2200 km bei 20 Grad Öffnung. Anders sieht es beim Satelliten aus der jeden Tag den ganzen Planeten erfassen muss. Der kleinste Orbit oberhalb von 450 km Höhe mit genau n Umläufen ist in 562 km Höhe, dann beträgt die Streifenbreite 2674 km bei 22 Grad Öffnung, ausreichend – es müssen 2671 km sein. Alternativ kann man bei 14 Umläufen pro Tag auf 889,2 km Höhe gehen. Bei dem kleinen Winkel ändert das aber kaum was an der Streifenbreite. Nur bei Weitwinkelaufnahmen nimmt diese drastisch zu.

Für kommerzielle Satelliten, die vor allem der Aufklärung dienen ist, die Revisitzeit wichtig. Die Revisitzeit ist der zeitliche Abstand zwischen zwei Daten, bei denen ein Ziel unter guten Bedingungen erneut überfolgen werden kann. Ganz genau wird es erst nach einem Zyklus überflogen, aber wenn man einen kleinen Versatz von wenigen Hundert Kilometern toleriert so kann, man es früher beobachten. Nehmen wir Worldview 3+4 die, sind in rund 612,5 km hohen Orbits. Man kommt in der Höhe auf 14,84 Umläufe pro Tag mit einem Bahnversatz von 431 km pro Tag. Nach einem Tag sieht man das Ziel daher schräg, etwa um 8 Grad von der Seite. Das nimmt dann mit jedem Tag zu bis nach 6 Tagen ein Zyklus durchlaufen ist. Der Satellit hat also eine Revisitzeit von einem Tag. Worldview kann bis zu 20 Grad aus dem Nadirpunkt nach rechts oder links blicken, somit kann man an 4 von 6 Tagen ein Gebiet noch von der Seite erfassen. Im Allgemeinen kann man die Revisitzeit bei einem gegebenen tolerierbaren Winkel ausdehnen, wenn man die Höhe der Umlaufbahn erhöht. Für militärische Unternehmungen setzt man heute eher auf mehrere Satelliten in zueinander versetzen Bahnebenen. Gerade für die ist auch die Revisitzeit sehr wichtig. Im zivilen Bereich benötigt man meist nicht so kurze Zeitabstände, wenn dann vor allem bei Katastrophenfällen wie Überschwemmungen.

Die Breite des Streifens bei einem gegebenen Winkel ist über den Cosinussatz berechenbar, wenn man Öffnungswinkel der Kamera, Bahnhöhe und Erdradius kennt. Man kann dann zuerst die dritte Seite berechnen und dann über den Sinussatz den gegenüberliegenden Winkel zwischen den Seiten am Erdmittelpunkt berechnen und dann über Multiplikation mit 2 x π * Erddurchmesser die Strecke auf der Erdoberfläche.

Die Optik

Ale Satelliten brauchen eine Optik um Aufnahmen zu machen. Zwei Dinge sind wichtig: Der Durchmesser der Optik definiert das Auflösungsvermögen, also wie feine Details man theoretisch noch aus einer vorgegebenen Höhe erkennen kann. Diese ist physikalisch begrenzt. Für Linsenteleskope ist bei einem gegebenem Durchmesser die Auflösung am höchsten. Für Spiegelteleskope ist sie je nach Größe des Fangspiegels etwas kleiner, weshalb man in solchen Satelliten auch Konstruktionen findet, die bei irdischen Teleskopen eher selten sind wie Schiefspiegler mit gefaltetem Strahlengang. Dadurch vermeidet man einen Fangspiegel im Strahlengang.

Das Zweite ist die Brennweite, welche die Vergrößerung angibt. Bei gleichem Optikdurchmesser wird mit zunehmender Brennweite ein Element auf der Bildebene immer größer. Sie sollte, wenn man die physikalische Auflösung auch voll ausnutzen will, auf die Größe eines Pixels im Sensor abgestimmt werden. Beide Parameter stehen über die Blende in Beziehung für die gilt: Blende = F/D

Für Linsenfernrohre gilt:

Blende für maximale Auflösung = 1,661 * Pixelgröße in µm.

Pixelgröße bei Sensoren für Satelliten liegen meist zwischen 6 und 14 µm so kommt man auf Blenden von 10 bis 23. Ist die Brennweite bzw. Blende kleiner so verschenkt man Auflösung, erhält aber mehr Licht pro Pixel, was die Belichtungszeit für ein ideales Bild reduziert oder bei einer vorgegebener Belichtungszeit das Signal/Rauschen verbessert. Es ist nicht ratsam eine Blende zu verwenden, die größer als die ideale ist, dann verschmiert man nur ein Detail über zwei Pixel und hat stärker verrauschte Bilder.

Der Durchmesser der Optik legt die Auflösung fest. Auch diese kann man über optische Gesetze leicht berechnen. Für kleine Winkel (Brennweite>Sensordurchmesser) gilt folgende Faustformel:

Eine Optik von 1mm Durchmesser kann im sichtbaren Licht (550 nm Zentralwellenlänge) aus 1661 m Entfernung ein Detail von 1 mm auflösen. Über Dreisatz kann man so den Durchmesser für jede beliebige Größe aus jeder Entfernung errechnen.

Worldview 3+4 haben z.B. ein Teleskop von 1,1 m Durchmesser, eine Pixelauflösung von 0,31 m und eine Bahnhöhe von 612,5 km. Aus obigem Satz errechnet man für diese Bahnhöhe und dieses Teleskop eine theoretische Auflösung von 33,5 cm. Hier ist also das Detektorelement etwas kleiner als die theoretische Auflösung, bzw. bei 508 nm Wellenlänge hat ein Pixel genau die theoretische Auflösung.

Die Konstruktion des Teleskops legt auch fest, wie groß der Bereich ist, in dem man eine scharfe Abbildung erhält. Bei allen Teleskopen gibt es eine Aufhellung des Zentralbereiches, je nach Typ auch noch Bildfehler wie eine Verzerrung zum Rand hin oder Farbfehler.

Sensor

Es gibt zwei mögliche Sensortypen, die eingesetzt werden. Fast ausschließlich werden heute TDI-Sensoren eingesetzt, das sind Zeilensensoren mit mehreren Scanzeilen. Dabei wird das elektrische Signal integriert. Hat ein Sensor 16 Zeilen, so wird nach einer vorgegebenen Zeit jeweils ein Pixel in Zeile 1 ausgelesen und die Ladung in das darüberliegende Pixel von Zeile 2 verschoben. Dort erzeugt Licht noch mehr Elektronen und dies setzt sich fort, bis es in der letzten Zeile angelangt ist. Der Vorteil ist, dass man so die Belichtungszeit von 16 Zeilen summiert hat. Dies ist nötig, wenn man den Sensor nicht zur Bewegungskompensation drehen will (meist müsste man dazu das ganze Teleskop drehen). Eine Bewegungskompensation ist aber notwendig, wenn die theoretische Belichtungszeit kleiner ist, als die Zeit, die man hat, bevor ein Detail durch die Bewegung verschmiert.

In einem erdnahen Orbit bewegt sich ein Satellit mit typisch 7 km/s relativ zur Erdoberfläche. Würde man mit eine Tausendstel Sekunde belichten, dann verschmiert die Bewegung alle Details die kleiner sind als 7 m. Für Auflösungen von 0,3 m wie bei Worldview käme man so auf extrem niedrige Belichtungszeiten, die sehr dunkle und verrauschte Bilder ergeben. Mit den TDI-Sensoren kann man so praktisch das Licht von n Pixeln addieren.

Ist die Belichtungszeit nicht ausschlaggebend, kann man normale Flächen-CCD nehmen. Diese haben weniger Rauschen als die TDI das durch das Kopieren der Ladung entsteht. Zudem kann man in Frame Transfer-CCD den Inhalt schnell von einer benutzten Hälfte des Chips in eine abgedeckte nicht benutzte kopieren und dort langsam auslesen.

Datenverarbeitung

Die Daten müssen dann auch noch ausgelesen und gespeichert werden. Das Letztere ist heute kein Problem. Schnelle Speicher auf Basis von Flash-Speichern oder sogar RAM gibt es heute ebenso wie Schnittstellen mit hoher Datenrate. Derzeit sind eher die Ausleseraten de Sensoren limitierend, schnelle Sensoren gibt es für niedrige Auflösungen, astronomische Sensoren mit großen Pixelgrößen und großer Fläche müssen im Normalfall nicht schnell ausgelesen werden.

Heute begrenzend ist dann eher die Datenübertragung zur Bodenstation. Die meisten Satelliten umkreisen die Erde auf sonnensynchronen Bahnen in denen sie bei jedem Umlauf den Nord- und Südpol passieren. Mit drei Empfangsstationen rund um die Pole hat man dann bei jedem Umlauf zwei Möglichkeiten die Daten zu übertragen. Typisch hat man dazu selbst bei erdnahen Bahnen 6 bis 10 Minuten Zeit je nach Bahnhöhe. Doch selbst im besten Fall hat man so über ¾ der Umlaufdauer keinen Funkkontakt. Weitere Bodenstationen auf den Kontinenten können die Lücke füllen, aber kein Satellit hat dauernd Funkkontakt.

Wordview 3+4 senden ihre Daten mit 800 und 1.200 Mbit/s, zusammen also 2.000 MBit/s. Der Sensor hat 35.000 Pixel bei 11 Bits/Pixel. Bei 0,31 m Auflösung und 6890 m/s Bodengeschwindigkeit müssen pro Sekunde 22.245 Zeilen ausgelesen werden, was dann 8,56 GBit/s sind, also mehr als übertragen werden kann und dies auch nur bei Kontakt mit der Bodenstation. Ein Satellit kann so nicht dauernd die Erde erfassen.

Für beide Satelliten, die in einem bzw. 14 Tagen die ganze Erde abbilden, wird man daher eine Bodenauflösung festlegen müssen, die mit den Übertragungsmöglichkeiten korrespondiert.

Eine Lösung ist es, Laserkommunikation zusätzlich einzusetzen. Der deutsche Satellit BIROS kann damit 1 GBit/s zu einem Bodenterminal übertragen, mit Funk nur 2,2 Mbit/s. Da Laserkommunikation zu irdischen Bodenstationen stark wetterabhängig erfordert diese Lösung zumindest das Zwischenspeichern an Bord und erst nach Empfang wird man die belegten Blöcke wieder freigeben können. Für ganz schnellen Zugriff, innerhalb eines Umlaufs eignet sich das nicht, auch wenn es sehr unwahrscheinlich ist, dass man über mehrere Umläufe keine einzige Bodenstation findet, die keinen klaren Himmel hat. Laserkommunikation kann auch um ein Laserterminal an Bord eines geostationären Satelliten erfolgen. Man braucht hier wegen der größeren Entfernung (36.000 km anstatt < 1000 km) etwas größere Teleskope und/oder höhere Leistung, aber auch hier wurden Datenraten im Bereich von Gbit/s schon realisiert. Regierungen nutzen dies für ihre Erdbeobachtungssatelliten. Die Sentinels übertragen so z.B. ihre Daten. Private Unternehmen scheuen die Kosten für einen weiteren Satelliten nur zur Datenübertragung. Der könnte dann natürlich auch die Daten per Radiowellen empfangen und senden. Dafür bräuchte man aber bei den geforderten hohen Datenraten sehr hohe Sendeleistung bzw. sehr große Sendeantennen.

Umsetzung

Ich fange mit dem Satelliten, an der die Erde global kartieren soll. Eine erste Abschätzung gilt der Auflösung. Wenn ich annehme, dass der Satellit 2 GBit/s übertragen kann (so viel wie Worldview 3+4) und pro Umlauf es zwei Kontakte von 600 s Dauer gibt (typische Zeit 20 Grad über dem Horizont für einen etwa 600 km hohen polaren Orbit), so kann ich pro Umlauf rund 2,4 Tbit übertragen. Ich muss pro Umlauf einen 2700 km breiten und 40.000 km langen Streifen erfassen, dies in 3 Farben zu je 12 Bit, mit einem verlustlosen Komprimierungsfaktor von 2. Das sind dann 18 Bit pro Pixel, was 133 GPixel pro Umlauf erlaubt oder 1234 Pixel pro Quadratkilometer, was einer Bodenauflösung von nur rund 30 m entspricht.

Bei dieser groben Auflösung ist ein erdnaher Orbit dann nicht mehr so wichtig. Meine APS-C Einsteigerkamera mit einem 300-mm-Objektiv könnte aus 600 km Höhe noch Aufnahmen von 8 m Auflösung machen, kleine Satelliten wie ProbeA, Rapideye oder Dove können Bilder in einer Auflösung von einigen Metern machen. Daher würde ich für den Satelliten einen hohen Orbit anstreben, z.B in 1256 km Höhe mit 13 Umläufen pro Tag. Das maximiert die Kontaktdauer zu den Bodenstationen. Zudem ist die Verzerrung der Erdoberfläche bei der geforderten Streifenbreite kleiner. Bei einem stabilen Signal 10 Grad über dem Horizont gibt es so 1481 s lang Kontakt, macht bei zwei Kontakten pro Orbit 2962 s, was die übertragene Pixelmenge erhöht, sodass man auf eine Auflösung von 20 m erreicht. Ein Linsenobjektiv mit 40 mm Druckmesser hätte die benötigte beugungsbegrenzte Auflösung.

Die Geschwindigkeit über dem Boden beträgt 6,04 km/s, das ergibt eine Belichtungszeit von 1/300 s, ausreichend, wenn man bedenkt, das im Weltall ohne die filternde Atmosphäre die Sonne um ein Drittel stärker scheint als auf der Erde und da benötigt man, wenn die Sonne bei klarem Himmel im Zenit steht, keine 300-stel Sekunde für ein Foto, wenn die Blende klein ist und das ist bei so einem kleinen Objektiv ohne Problem möglich.

Der Satellit hat ein anderes Problem. Bei 13 Umläufen pro Tag muss der Streifen, der abgebildet werden soll, 3100 km breit sein. Das sind über 150,000 Pixel in der Breite. So große Scanzeilen gibt es nicht. Selbst wenn man eine Scanzeile aus mehreren (bis 40.000 Pixel gibt es) zusammensetzt gibt es keine Kamera erträglicher Größe mit einem solchen Blickfeld. Eine Mittelformatkamera hat rund 50 MPixel bei einer Sensorfläche von 44 x 33 mm. Das sind 8.200 Pixel in der langen Seite bei 5,4 µm/Pixel. 20 Kameras, parallel geschaltet, jede mit einem Objektiv von 350 mm Brennweite (163,5 km Streifenbreite) würden den Job tun. Das hat auch den Vorteil, das man jede Kamera an einen eigenen Datenspeicher anschließen kann. Das Auslesen ist dann zeitlich kein Problem, man hat für jedes Bild rund 20 s Zeit. 350 mm ist die Brennweite eines Apochromats mit 44 mm Linsendurchmesser mit einer Blende von 8. Standardobjektive erreichen 300 mm Brennweite bei Blende 5,6. Man benötigt bei dieser Technologie mindestens ein Objektiv von 40 mm Durchmesser. Jede Kamera hätte ein Gewicht von einigen Kilogramm, alle zusammen sicher unter 50 kg. Damit wäre auch das Gesamtgewicht des Satelliten nicht zu hoch, ich schätze etwa 300 kg bei einem typischen Nutzlastanteil von einem Sechstel.

Alternativ kann man Zeilensensoren einsetzen, die sind breiter jedoch muss man diese auch auf das Bildfeld abstimmen. Bei nicht zu großen Optiken, die ann aber auch sehr schwer werden ist aber das Mittelformat schon die Grenze. Wer eine 70-mm-Filmkamera mit einer Mittelformatkamera in Bezug auf Gewicht vergleicht, dem wird klar sein, dass die Mittelformatkamera die leichtere Lösung ist, auch wenn man mehrere benötigt.

Der zweite Satellit, der multispektrale Aufnahmen macht, wird auf jeden Fall einen Flächensensor einsetzen. Er schaut mit der langen Seite quer zur Bewegungsrichtung. In dieser Richtung ist auch ein Spalt in der Optik, der lässt nur Licht einer Zeile durch. Dahinter bricht ein Beugungsgitter das Licht in seine Spektralfarben auf die dann über die Breite des Chips fallen. Jede Spalte enthält so das Spektrum eines Bildpunktes einer Zeile. Durch die Bewegung der Satelliten erhält man dann ein Bild.

Das Grundproblem der Gewinnung eines Spektrums ist, dass man so einen Datencube bekommt: n Pixel in der Länge x n Scanzeilen x n Pixels pro Spektrum. Nimmt man nur 256 Pixel für ein Spektrum, was noch relativ grob ist, dann hat man verglichen mit 3 Farben beim ersten Satelliten die 83-fache Datenmenge. Berücksichtigt man das man 14 anstatt einen Tag zeit hat, so ist es immer noch die 6,1-fache Datenmenge. Bei gleicher Datenübertragungsrate, die ja schon beim ersten Satelliten das Limit setzte, ist so die Auflösung pro Pixel um den Faktor 2,5 höher – sie erreicht nur 50 m/Pixel.

Bei 50 m/Pixel und einer Bahnhöhe von 889 km ergibt sich so eine Breite von 205 km pro Streifen und 4.100 Pixel pro Zeile. Das ist mit einem herkömmlichen CCD-Sensor in einer Kamera zu machen. Man würde einen relativ großen Sensor wählen, da durch die Aufspreizung des Spektrums jedes Pixel weniger Photonen bekommt. Im Mittelformat wären so 11 µm/Pixel möglich etwa doppelt so große Pixel wie bei normalen Kameras..Es werden nur 256 Pixels in der zweiten Dimension gebraucht. Dafür gäbe es zwei Lösungen. Das eine ist zwei Scanzeilen-CCD. die es mit bis zu 128 Zeilen. gibt zu kombinieren oder man fasst bei einem Flächen-CCD einfach mehrere Pixel zusammen (Binnen). Beim Typischen 4/3 Format müsste man so 12 Pixel binnen.

Aufgrund der niedrigen Auflösung gibt es noch weniger Anforderungen an das Objektiv. Ein 190 mm Objektiv, das ist eine gängige Telebrennweite eines Linsenobjektives, würde ausreichen. Die Datenrate müsste 127 Mpiuxel/s erreichen, eine Datenmenge, die man heute kontinuierlich auf eine einzelne SSD schreiben kann.

Optimierungen

Man kann noch etwas verbessern. Das Offensichtlichste ist, das die Breite des Streifens nur am Äquator so breit sein Muss. In 45 Grad Breite reichen 70,7% der Breite und beim Pol sind es theoretisch 0 Pixel. Integriert man dies, so kommt man auf 63,7% der Datenmenge als wie, wenn man immer die gleiche Breite überträgt. Eine Routine muss nur anhand der aus GPS-Koordinaten berechneten geografischen Breite den Cosinus berechnen und mit der Streifenbreite multiplizieren, davon lässt man dann links und rechts jeweils die Hälfte im Vergleichen zur Maximalbreite weg. Das erhöht die Auflösung um rund 25% auf 16 bzw. 40 m.

Zwei Drittel der Erdoberfläche bestehen aus Ozeanen. Über denen muss man nicht Bilder gewinnen. In der Praxis ist der Gewinn aber kleiner, denn man erfasst rund um Inseln zwangsläufig bei einem Streifen auch das Meer mit. Ich denke aber das liefert eine weitere Reduktion der Datenmenge um 50 %, oder 24 % höhere Auflösung. Wenn man den täglich abbildenden Satelliten aber zur Kontrolle der Umwelt, wie z.B. abgeleitetes Öl im Wasser nutzt, kann man diese Optimierung nicht nutzen.

Das Naheliegende wäre es die Datenrate zu erhöhen. Neben der „großen“ Lösung nämlich mehr Empfangsstationen weltweit hinzuzunehmen oder einen geostationären Satelliten, bei dem dann dauernder Funkkontakt möglich ist, sehe ich in der Laserkommunikation das höchste Potenzial. Übertragungen mit 10 GBit/s zwischen ISS und Bodenstationen wurden schon demonstriert. Würde man Laserkommunikation nur während 30% der Zeit mit dieser Datenrate nutzen können, so wären es im Mittel 5 anstatt 2 GBit/s was die Auflösung um den Faktor 1,57 steigern würde. Da dies stark wetterabhängig ist, müssten beide Satelliten große Datenmengen an Bord speichern. Doch dank großen SSD ist das kein Problem. Für Server gibt es SSD mit bis zu 4 Tbyte Kapazität, die man dann noch bündeln kann zu einem Massenspeicherarray. 16 Stück, so als kommerziell verfügbares Subsystem für Server haben dann 64 TeraByte Kapazität was theoretisch bei 5 GBit/s im Mittel als Datenrate für 3,6 Tage ohne Kontakt zu einem optischen Teleskop reichen würde.

Klar ist, dass man natürlich bei so höheren Auflösungen das optische System neu konzipieren muss. Aufgrund der nun schon großen Länge des Artikels habe ich darauf verzichtet.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.