Wie viel Auflösung brauchen Satelliten und welcher Aufwand ist dafür zu treiben?

Nach dieser Meldung wollen Firmen Fotos mit einer höheren Auflösung als bisher kommerziell verbreiten. Das erstaunt zuerst, sollte doch jede Firma dies selbst entscheiden können. Doch ganz so einfach ist es nicht. Größter Kunde der US-firmen wie Digiglobe ist die NRO, die erst mal alles aufkauft und dann die Erlaubnis gibt es wieder in geringerer Auflösung zu verkaufen (wenn nicht gerade mal wieder ein Krieg ansteht, vor und während des Afghanistan und Irak Krieges gab es zumindest keine Fotos dieser Länder). Bei Frankreich sind die Satelliten in „government-privat“ Partnership finanziert. Warum von Frankreich die Rede ist, ist mir ein Rätsel. Die Plejades haben 0,7 m Auflösung. Helios II haben 0,35 m Auflösung, sind aber reine Regierungsnutzlasten, von ihnen werden gar keine Aufnahmen veröffentlicht.

Doch darum geht es nicht. Sondern darum wie aufwendig es ist immer größere Auflösungen zu generieren. Im militärischen Bereich werden da ja Wunderwerte gehandelt. Da nun auch die Geheimhaltung über Hexagon gefallen ist, weiß man das bei diesem ersten der busgroßen Spionagesatelliten es gar nicht um Auflösung ging, sondern um große Flächenabdeckung. Er hatte nur 60 cm Spitzenauflösung konnte aber über 20.000 km² mit einem Foto ablichten, das man bis zu 100-fach vergrößern konnte.

Fangen wir mit ein paar Grundlagen an. Zuerst kann man leicht die Auflösung eines Teleskops berechnen. Für Linsenteleskope gilt: Eine Optik von 122 mm Durchmesser hat eine Auflösung von 1 Bodensekunde. Ein Objekt von 1 m Breite hat aus 202,65 km Entfernung gesehen, eine Winkelausdehnung von 1 Bogensekunde. Aus diesen Daten kann man leicht per Dreisatz die Auflösung für jede Optik und jede Entfernung berechnen. Das gilt so nur wenn es kein Hindernis im Strahlengang gibt. Bei Spiegelteleskopen mit einem Fangspiegel im Strahlengang muss man die obigen 122 durch 150 mm ersetzen, wenn der Spiegel sehr groß ist (Durchmesser > 25% des Objektivs), sogar 175. Er setzt als Hindernis den Kontrast herab.

Man vermeidet diesen Nachteil wenn man ein Spiegelteleskop als Schiefspiegler konzipiert. Das optische System ist aufwendiger, aber der Tubus ist kompakter, weil der Strahlengang in Form eines „z“ verläuft. So arbeiteten soweit bekannt die Teleskope an Bord der Spionage Satelliten und auch die HiRISE Kamera an Bord des Mars Reconnaissance Orbiters nach diesem Prinzip.

Man kann aus den obigen Daten leicht berechnen, dass schon ein kleines Teleskop, wie es Amateure haben (10 bis 25 cm Öffnung) und bei dem der Tubus nur einige Kilogramm wiegt aus einer stabilen, aber niedrigen Umlaufbahn in 500-600 km Höhe Aufnahmen mit einer Auflösung von 2 m anfertigen und es gibt auch einige Satelliten mit nur wenigen Hundert Kilogramm Gewicht die das leisten. (z.B. Rapideye)

Ebenso klar ist, dass die Optik immer größer werden muss, wenn man eine größere Auflösung haben will. Für 30 cm aus 600 km Entfernung braucht man im günstigsten Fall ein Teleskop von 1,20 m Durchmesser. Wenn man weiter weg ist, ein noch größeres System. Nun steigt aber das Gewicht rasch an. Bei astronomischen Teleskopen rechnet man mit einem Anstieg um den Faktor 6 bei Verdopplung des Durchmessers. Das ist nicht die dritte Potenz, aber immerhin die 2,6-te Potenz. Die Kamera HiRise wiegt 65 kg und hat einen Durchmesser von 70 cm. Das 1,20 m Teleskop würde so rund 260 kg wiegen – das wäre durchaus kein Problem wenn der Satellit einige Tonnen wiegt. Davon kann man ausgehen, denn die letzten dieser Art wurden mit Delta II und Sojus Trägern gestartet. Bei 20 cm Auflösung liegt das Gewicht schon bei 750 kg für die Optik, bei 10 cm sind es dann über 4,5 t. Dann kommt man in einen Bereich indem der ganze Satellit eher ein Anhängsel an der Optik ist, so wie bei Hubble wo das Servicemodul am Teleskop hängt. Auch beim Plejades Teleskop mit einem nur mittelgroßen Teleskop wurde der Satellit um das Teleskop herumgebaut.

Von der Optik her wäre es beim Start mit einer leistungsfähigen Trägerrakete sicher kein Problem 15 cm Auflösung zu erreichen, eventuell sogar 10 cm wenn die Trägerrakete 7 t oder mehr in den Orbit befördern kann.

Das Problem ist jedoch ein anderes. Das erste ist, das nicht nur die Auflösung für einen Satelliten wichtig ist, sondern auch die Frequenz der Beobachtungen bzw. wie viel Fläche er aufnehmen kann. Und da gibt es nun bei höherer Auflösung Probleme. Je höher die Auflösung, desto kleiner das Gesichtsfeld. Damit braucht der Satellit länger eine bestimmte Fläche abzubilden. Weiterhin ist es aufwendiger ihn zu drehen. Das kann nötig sein, wenn man ein Gebiet von der Seite beobachten will, weil man nicht warten will oder kann bis man es erneut senkrecht passiert. Spezielle Weitwinkeloptiken, wie sie z.B. beim Schmidt-Teleskopen zum Einsatz kommen können das ausgleichen. Die Hexagon Kamera bildete einen Streifen von 5,2 Grad ab, und das bei einer Öffnung von 50,8 cm und einer Brennweite von 152,4 cm. 5.2 Grad, das sind etwa 11-fache Vergrößerung und wer selbst ein Teleskop hat, das wesentlich kleiner ist und schon 30-40-fach vergrößert, weiß was das bedeutet. Als angenehmer Nebeneffekt sind diese Kameras auch sehr lichtstark.

Trotzdem begegnet man bei höherer Auflösung bald einer neuen Schwierigkeit. Soweit mir bekannt, arbeiten alle zivilen Satelliten mit einer besonderen Art von Zeilenscannern. Zeilenscanner kennen sie von dem Flachbettscanner. Die Bewegung erledigt beim Satelliten die Eigenbewegung des Satelliten. Ein Satellit der sich auf einer erdnahen Umlaufbahn bewegt, hat eine Geschwindigkeit von 7 km relativ zur Erdoberfläche, wird Deutschland also in 120 s passieren. Nehmen wir an, er hätte die Kamera von Hexagon an Bord, dann würde er aus 600 km Höhe in den 120 s einen 840 x 55 km großen Streifen abbilden. Die Auflösung betrüge dann 71 cm. Das bedeutet aber auch: bei einer Geschwindigkeit von 7000 m/s relativ zum Erdboden ist ein Detail von 71 cm Größe innerhalb einer Zehntausendstel Sekunde an dem Detektor vorbeigehuscht. Die Belichtungszeit muss daher weit unterhalb einer Zehntausendstel Sekunde liegen. Doch selbst lichtempfindliche CCD haben nicht so kurze Belichtungszeiten. Was eingesetzt werden, sind daher besondere Zeilensensoren. Sie schieben die Ladung die der Belichtung entspricht spaltenweise nach oben, synchron zu der Bewegung So wird die Belichtung addiert. Das klappt recht gut, doch wenn man herunter geht mit der Auflösung wird man bald anstatt 16 Zeilen viel mehr brauchen und die Belichtungszeit wird immer kürzer. Dann wird das Eigenrauschen immer bedeutsamer. Diese TDI-Sensoren wurden für Fließbänder entwickelt um z.B. Flaschen auf Defekte zu untersuchen wenn sie in hoher Geschwindigkeit an der Kamera vorbeiziehen.

Die Lösung ist Bewegungskompensation, die auch bei des US-Spionagesatelliten von Anfang an eingesetzt wurde. Man bewegt entweder den Sensor oder das ganze Teleskop synchron zur Bewegung. Dann kann man auch auf andere Sensoren ausweichen, wie ganze Sensorfelder aus Full-Frame CCD. So sind dann sicher noch höhere Auflösungen möglich, aber wie man sieht, wird es technisch aufwendig.

Das letzte Problem ist, dass die Datenmenge quadratisch ansteigt. Zwar wird die Breite des Streifens (in Pixeln)  immer gleich bleiben. Doch wenn man schon ein Teleskop hat das beweglich ist kann man es auch quer zur Flugrichtung schwenken. Hexagon konnte 120 Grad Streifen von 560 km Breite mit einem Bild erstellen. Heute würde man die Daten auf SSD speichern, doch man muss sie auch mal übertragen und da wirds dann doch eng. Worldview sendet schon mit 800 Mbit/s, aber die Empfangsstation hat maximal einmal pro Umlauf kontakt für einige Minuten. Die Plejades Satelliten müssen die Rohdatenmenge von 4,5 Gigabit/s auf 1,5 GBit/s komprimieren, weil dies die maximale Datenübertragungsrate zum Massenspeicher ist. Selbst wenn sie dort abgelegt werden können, muss man sie auch mal zum Boden übertragen. Ab einer bestimmten Auflösung braucht man einen eigenen Kommunikationssatelliten (besser zwei oder drei) im geostationären Orbit um die ganzen Daten auch loszuwerden. Beim obigen Beispiel mit nur 71 cm Auflösung werden in 120 s 91,6 Milliarden Bildpunkte gewonnen. Bei 16 Bits pro Bildpunkt immerhin eine kontinuierliche Datenrate von 1,52 GByte/s – jenseits dessen was heute selbst auf SSD abgelegt werden kann. So sind heutige Satelliten schon in ihren Fähigkeiten beschränkt. Die Plejades Satelliten mit dieser Auflösung machen maximal 20 x 70 große Aufnahmen.

Daher wird man immer nur kleine Szenen aufnehmen. Zugegebenerweise ist das ja auch gewünscht, denn die Wüste Sahara will man sicher nicht in 30 cm Auflösung anschauen. die Großstädte der Welt vielleicht schon.

One thought on “Wie viel Auflösung brauchen Satelliten und welcher Aufwand ist dafür zu treiben?

  1. Das Weltraumteleskop Gaia, das demnächst gestartet werden soll, um die Milchstraße zu vermessen (Bestimmung der dreidimensionalen Position und dreidimensionalen Geschwindigkeitsvektoren von 1 Mrd. Sterne, Entdeckung von ca. 1 Millionen jupiterähnlicher Planeten so quasi als „Beifang“, usw. usf.) verwendet CCDs mit jeweils ca. 2000 x 4000 Pixeln im „Scan“-Modus, in dem die Ladungen jeweils von einer zur nächsten Zeile verschoben werden und dann erst am Rand des Sensor digitalisiert werden. Die Scan-Geschwindigkeit ist synchronisiert mit der Drehung des Satelliten, die das Bild bewegt.

    Es ist also technisch kein Problem, deutlich mehr als die von Bernd genannten 16 Zeilen zu erreichen. Zur Minimierung des Rauschens kühlt Gaia die Sensoren passiv auf ca. -100 °C. Ansonsten hängt das Gesamtrauschen nicht so sehr von der Zahl der Scan-Zeilen ab, da das Signal ja „analog“ weitergeschoben wird und die Quantisierung erst am Ende erfolgt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.