Die Lösung für ein überflüssiges Problem: Die Qualität der Triton Kartierung
Eine der Kandidaten für die aktuelle Runde der Discovery-Missionen ist Trident. Die Sonde soll 2026 starten und nach zwei Venus- und Erdvorbeiflügen 2032 in naher Distanz (unter 89.000 km Distanz) Jupiter passieren, der sie dadurch stark beschleunigt, sodass sie 2038 Neptun erreicht – Voyager 2 brauchte nicht 6 sondern 10 Jahre von Jupiter zu Neptun, allerdings mit zwei kleinen Abstechern zu Saturn und Uranus.
Ich möchte heute mal diskutieren, wie gut die Kartierung von Triton sein könnte und auch die Einflussfaktoren nennen.
Einflussfaktor 1: Minimaldistanz
Die Minimaldistanz kann in gewissen Grenzen frei festgelegt werden. Bei Voyager 2 war Triton nur ein Ziel. Mit seiner Suite von 12 Instrumenten war Neptun der Hauptgegenstand der Untersuchungen. Bei Triton konnten von den 12 Instrumenten nur ein Teil eingesetzt werden. Wenige Daten würde es bei Triton von Instrumenten für Wellen, Magnetfelder und geladene Teilchen geben. Da aber die Neptunvorbeiflugdistanz bei Voyager den Abstand bei Triton festlegte, waren die Wissenschaftler die diese Instrumente betreuten dafür möglichst auf Abstand zu gehen, damit die Sonde weniger stark beschleunigt wird und sie so mehr Messzeit bei Neptun hätten. Die Teams, die sich Bilder und Spektren von Triton erhofften, waren dagegen für eine geringe Minimaldistanz. Hätte Voyager 2 Neptun in 1.000 bis 1.300 km Distanz passiert, so wäre sie in 8.000 bis 10.000 km Distanz an Triton vorbeigeflogen. Jeder Kilometer mehr vergrößerte die Distanz, da Triton nicht in der Äquatorebene Neptun umkreist, sondern 27 Grad zum Äquator geneigt und noch dazu retrograd, also gegen die Rotationsrichtung von Neptun. Neptun muss die Sonde also so umlenken, dass sie in Tritons Distanz (327.000 km) 27 Grad über oder unter dem Äquator ist. Das geht um so besser je näher man sich Neptun nähert. Voyager passierte schließlich Neptun in 4.850 km Distanz, daraus resultierte eine Distanz von 38.500 km von Triton.
Logischerweise bekommt man immer höher aufgelöste Aufnahmen, je näher man sich Triton nähert. Allerdings ist dann auch das Blickfeld der Kamera klein und sie bildet ein kleineres Areal ab. Da der Abstand laufend sinkt, bzw. nach dem Vorbeiflug wieder ansteigt, ist die Zahl der Bilder bei einer niedrigen Distanz klein und sie bilden nur eine kleine Fläche ab.
Einflussfaktor 2: Datenrate
Als Voyager 2 Neptun passierte, war die Technik der Datenverarbeitung noch eine andere. Die Sonde hatte als Massenspeicher einen Bandrekorder. Der war schon nicht sehr schnell – der Bandrekorder der zwei Jahre zuvor gestarteten Viking Sonde hatte eine Schreibrate von 4,48 Mbit/s, Voyagers Rekorder nur eine von 0,1152 Mbit/s. Das Abspeichern eines Bildes dauerte 48 Sekunden, in der die Sonde (geschätzt) 624 km zurücklegte. Eine sehr niedrige Vorbeiflugdistanz macht daher auch nur bedingt Sinn, denn sie bedeutet nur wenige zusätzliche Bilder. Würde Voyager nur Bilder anfertigen und keine anderen Messdaten gewinnen, so bedeuten die 30.000 km Distanz zwischen minimal möglicher Passage in 8.000 Abstand und der Passage in 38.500 km Distanz nur rund 50 weitere Bilder.
Hier hat sich viel geändert. Raumsonden haben heute einen Massenspeicher aus Flashbausteinen wie in einer SSD. Solche Speicher erreichen Schreibraten von 500 MByte/s. Die vorgeschlagene Jupitersonde IVO wird Daten mit 240 MByte/s aufzeichnen. Begrenzend für das Aufnehmen von Bildern sind daher andere Faktoren.
Einflussfaktor 3: Belichtungszeit, Auslesezeit und Schwenkzeit
Die Belichtungszeit ist ein wesentlicher Zeitfaktor. Neptun ist fast 30-mal weiter von der Sonne entfernt als die Erde. Er erhält nur 1/900 des Lichts, das die Erde erhält. Daher wird die Belichtungszeit viel länger sein. New Horizons Kamera hatte beim etwas weiter entfernten Pluto eine Belichtungszeit von 1/5 s. Dabei hatte sie für irdische Maßstäbe große Pixel: 13 µm im Quadrat (meine 18 MP Spiegelreflexkamera hat 4,5 µm große Pixel, Kameras in Smartphones typisch 1 µm große Pixel). Die Belichtungszeit wird ein wesentlicher Zeitfaktor sein, denn die Auslesezeit des Chips war bei New Horizons mit 13 ms viel kürzer. Da die Belichtungszeit für den ganzen Chip gilt, ist es sinnvoll möglichst viele Pixels auf dem Chip unterzubringen. Dann allerdings hat man, wenn die Größe jedes Pixels feststeht, da man die Belichtungszeit auch nicht zu hoch haben will, ein Problem mit der Größe des Chips. Ein Teleskop bildet im Fokus einen Kugelschnitt ab. Das heißt je weiter man sich von der optischen Achse entfernt um so verzerrter aber auch unschärfer wird die Abbildung. Wie stark hängt von der Konstruktion des Teleskops ab. Wenn man die Abmessungen eines 35-mm-Kleinbilds als Maßstab nimmt, das erreichen z. B. nicht mal alle Amateurteleskope, die in der Größenordnung wie ein Teleskop einer Raumsonde liegen, dann sind bei 10 bis 13 µm pro Pixel maximal 3.000 bis 4.000 Pixel in einer Line oder 9 bis 16 Mpixel bei einem quadratischen Chip möglich. Bei Zeilensensoren, die nur den mittleren Bereich nutzen, kann die Zeile noch etwas länger sein als bei einem quadratischen Chip, wo die Ecken weiter vom Zentrum entfernt sind. (genauer gesagt um den Faktor Wurzel(2) = 1,41 …).
Der letzte Faktor ist die Schwenkzeit zwischen zwei Aufnahmen. Sie ergibt sich, sobald ein Himmelskörper das Blickfeld ausfüllt. Nun muss man beginnen, Mosaike herzustellen. Zwischen jedem Bild muss sich die Kamera bewegen – z.B. zuerst in der Horizontalen für eine Zeile und dann in der vertikalen für die nächste Zeile. Diese mechanische Bewegung dauert. Voyager verwandte eine in zwei Achsen drehbare Instrumentenplattform, während sich die Ausrichtung der Raumsonde nicht veränderte. Eine solche Plattform muss relativ wenig Gewicht bewegen und man kann dafür Elektromotoren mit Schrittsteuerung nehmen, wie sie auch Teleskope haben. Sie haben keine Start/Stoppzeiten. Die Instrumentenplattform von Voyager hatte eine Spitzendrehrate von 1 Grad/s. Allerdings war die Übertragungsrate der Bilder so langsam, dass diese Geschwindigkeit kein Limit war. Zudem näherte sich Voyager nur wenigen Körpern richtig nah. Für zwei sich überlappende Bilder der Telekamera musste sich die Plattform um 0,3 Grad bewegen, was selbst bei langsamster Rate in 4 s erledigt war, das Auslesen des Bildes dauerte aber 12-mal so lange. Bei einer heutigen Sonde wären die bei 1 Grad/s anfallenden 0,3 s für die Neupositionierung dagegen länger als die Belichtungszeit und viel länger als die Auslesezeit. Demgegenüber erreichen Teleskopsteuerungen bis zu 12 Grad/s. Daher würde man eine schnellere Drehrate bevorzugen.
Heute ist es allerdings gängiger die Instrumente fest an der Raumsonde anzubringen und stattdessen die ganze Raumsonde zu drehen, das geht meist mit Drallrädern die ein Drehmoment induzieren. Gängige Busse für Kleinsatelliten haben eine maximale Drehrate von 1 Grad/s. Anders als bei einer Schrittsteuerung kann man aber die Bewegung des ganzen Satelliten nicht sofort stoppen. Zuerst muss die Drehrate in horizontaler Richtung wieder genullt werden, dann kann man die Sonde kippen (vertikale Drehung), auch das muss man wieder nullen und dann kann man in Gegenrichtung wieder horizontal drehen. Kurz: am Ende jeder Zeile fällt mindestens die vierfache Zeit einer Instrumentenplattform an. Zudem rotiert der Satellit die ganze Zeit, eine Instrumentenplattform bewegt sich nur nach dem Aufnahmen einer Belichtung. Ab einer bestimmten Distanz macht alleine das Drehen während der Belichtung eine Unschärfe, die das Bild unscharf macht.
Doch die Bewegung der ganzen Sonde kann man auch ausnutzen: Wenn der Sensor nur aus wenigen Scanzeilen besteht, dann kann man die Bewegung ausnutzen, um ein Bild aus vielen Spalten aufzubauen. Derartige Sensoren setzt man vor allem in Erdbeobachtungssatelliten oder einen Körper orbitierende Raumsonde ein. In diesem Falle sorgt die Orbitalgeschwindigkeit dafür, dass sich die Szene unter der Kamera bewegt. Bei einer Vorbeiflugsonde ist die Situation komplizierter. In großer Entfernung bewegt sich die Szene kaum. Dann muss die Sonde selbst rotieren. Allerdings muss sie erst die Bewegung stoppen und neu starten, wenn sie einen Streifen quer über die Oberfläche von Triton aufgenommen hat. Das Starten und Stoppen erfolgt bei einem Flächensensor bei jedem Bild. Je breiter der Streifen wird desto größer also dieser Vorteil. Auf der anderen Seite nimmt durch den sinkenden Abstand die Bewegung Tritons relativ zur Kamera immer mehr zu und man kann für eine gegebene Belichtungszeit und Auflösung einen Abstand errechnen, ab dem alleine diese Bewegung zu groß ist, um durch die Drehung der Kamera kompensiert zu werden. Ein weiterer Nachteil ist das derartige Sensoren durch TDI-Sensoren zwar viel kleinere Belichtungszeiten haben als Flächensensoren, aber in der Zeit eben nur eine Spalte oder Zeile belichtet wird und ein flächiger Chip mehrere Tausend Spalten bzw. Zeilen hat. Zudem verändert sich der Abbildungsmaßstab mit der Entfernung.
Für eine Neptunsonde würde ich daher eine Instrumentenplattform wählen. Sie erlaubt mehr Bilder, jedes Bild hat einheitliche Belichtungsbedingungen und ist nicht durch die Bewegung des Satelliten während der Belichtung verschmiert (eine Bewegung der Plattform zur Kompensation der Bewegung der Raumsonde relativ zu Triton kann trotzdem nötig sein).
Hier ein Vergleich der beiden Technologien. Ich habe in beiden Fällen die gleiche Fokusgröße (40 mm) und dieselbe Größe der Detektoren angesetzt und als praktische Beispiele die Detektoren von RCAM (IVO) und LORRI (New Horizons) genommen.
Parameter | Quadratischer CCD Chip | TDI-CCD Sensor |
---|---|---|
Pixel | 4096 x 4096 | 4096 x 16 (16 Farben) |
Pixelgröße | 10 µm | 10 µm |
Belichtungszeit bei Triton | 385 ms | 3 ms |
Belichtungszeit für 4096 x 4096 Aufnahme monochrom | 385 ms | 12.100 ms |
Belichtungszeit für 4096 x 4096 Aufnahmen 16 Farben mit je 0,3 s Filterwechselzeit | 11000 ms | 12.100 ms |
Szene 10 x 10 Grad, 20 % Überlappung monochrom 1 s Start/Stoppzeit zwischen einer Aufnahme f/d = 16,7 | 1296 s | 7032 s |
Szene 10 x 10 Grad, 20 % Überlappung monochrom 0,3 s Start/Stoppzeit zwischen einer Aufnahme f/d = 16,7 | 464 s | 6953 s |
Minimalabstand bei dem Belichtungszeit x Bewegung > Belichtungszeit x 1 Grad/s | 745 km | 19.100 km |
Der wesentliche Vorteil einer Scanzeile ist, dass man, weil es in der Regel nicht eine Zeile ist,l sondern mehrere, man ohne Problem gleichzeitig Monochrom- und Farbaufnahmen gewinnen kann. Auf der anderen Seite ist eine Scanzeile viel langsamer bezogen auf eine gegebene Fläche als ein flächiger Sensor. Bedingt durch die Langsamkeit wirkt sich die Bewegungsunschärfe auch schon bei einem kleineren Abstand aus. Je schneller die Plattform Drehungen durchführen kann desto größer wird der Vorteil eines Flächensensors.
Die Simulation
Ich bin im folgenden ausgegangen, das Triton in 8.000 km Distanz wie bei Voyager 2 passiert wird. Als Teleskop habe ich ein 30-cm-Teleskop gewählt, etwas größer als LORRI von New Horizons, aber da die Sonde auch schwerer sein wird, ist das im Gewichtsbudget umsetzbar. Es wiegt trotzdem noch weniger als die Narrow- und Wide anlge Kameras von Voyager zusammen und wegen des kleinen Ziels braucht man keine Wide Angle Kamera. Nach dem Dokument scheint die Kamera von TRIDENT dieselbe Auflösung zu haben, nämlich 200 m aus 100.000 km Distanz. Die wesentlichen Daten für die Simulation:
Parameter | Wert |
---|---|
Optikdurchmesser | 30 cm |
Brennweite: | 500 cm |
Blende | /16,7 |
Sensor: | 4096 x 4096 Pixel, je 10 µm² |
Auflösung: | 0,41 Bogensekunden = 100 m aus 50.000 km Distanz |
Gewicht (geschätzt, auf Basis der MOC) | 19 kg |
Gesamtzeit für das Aufnehmen einer Aufnahme | 1 s |
Minimaldistanz: | 8000 km |
Überlappung der Bilder | 20 % |
Vorbeifluggeschwindigkeit | 13 km/s |
Beleuchtete Phase | 90 % |
Triton bildfüllend ab | 330.300 km Distanz |
Und hier das Ergebnis einmal für die minimal mögliche Distanz von Voyager (8000 km) und einmal für die 500 km die für TRIDENT geplant sind:
Parameter | Wert Distanz 8.000 km | Wert Distanz 8.000 km |
---|---|---|
90 % Phase, Minimalauflösung | 41 m aus 20.363 km Distanz | 50 aus 19.927 km Distanz |
90 % Phase, Auflösung 50 % der Fläche | 33 m aus 16.745 km Distanz | 32 aus 15.827 km Distanz |
Bilder: | 951 | 1495 |
10 % Phase, Minimalauflösung | 22 m aus 11.173 km Distanz | 19 m aus 9.587 km Distanz |
10 % Phase, Auflösung 50 % der Fläche | 20 m aus 9.976 km Distanz | 15 m aus 7.513 km Distanz |
Bilder: | 244 | 699 |
Gesamtzahl Bilder | 1195 | 2.194 |
Die voll beleuchtete Phase ist das Worst Case Szenario (am besten wäre es, wenn es „Halbtriton“ gäbe, dann könnte man bei Hin- und Wegflug je ein Viertel erfassen. Doch auch dieses zeigt, das schon bei verhältnismäßig geringer Distanz alle Aufnahmen gemacht sind. Vergleicht man die Distanz, mit der ab der Triton bildfüllend ist, dann ist klar das man genügend Zeit hat Farbaufnahmen anzufertigen und erst ab etwa 20.000 km Abstand dann die bestmögliche Kartierung in Monochrom durchführt. Die fehlende Fähigkeit Farbaufnahmen ohne Filterwechsel anzufertigen ist so kein Nachteil. Diese entstehen dann eben in größerer Distanz. Wie man sieht, bringt ein extrem naher Vorbeiflug nicht so viel mehr für die globale Kartierung, auch wenn es rund 1.000 Biulder mehr gibt, die dann in geringerer Distanz entstanden, aber eben auch nur kleine Ausschnitte zeigen.
Voyager brauchte 5 Stunden 13 Minuten zwischen dem Passieren von Neptun und Triton, da dies 327.000 km in direkter Linie sind, entsprechen sie ziemlich genau der Distanz ab der Tribon bildfüllend ist. In dieser Zeit könnte die Sonde, wenn sie nichts anderes tut, 18.700 Bilder im 1 Sekunden-Abstand aufnehmen, die 300 GB belegen würden.
Abschätzungen Datenmenge
Wenn ich davon ausgehe, dass man erneut eine Raumsonde in der Voyager Klasse startet, mit demselben Sendesystem, dann wird man ohne Zusammenfassung von Antennen 9,6 KBit/s bei Neptun übertragen können. Allerdings gibt es mittlerweile das Ka-Band. Basierend auf den Erfahrungen des MRO liefert dieses bei gleicher Antenne und gleicher Sendeleistung 2,6-mal mehr Daten, mithin 26 kbit/s. Nimmt man an, dass man wie bei New Horizons sich 6 Monate Zeit mit der Übertragung der Daten lässt, bei 12 Stunden Sendedauer pro Tag und 1/6 Overhead für die Fehlerkorrekturinformationen, dann sind dies Ingesamt 202 GBit an Informationen. JPEG-Bilder mit dem Faktor 5 komprimiert, haben 38 MBit pro Bild, das entspricht also 5.260 Aufnahmen. Das ist deutlich mehr, als die rund 1.200 Aufnahmen, die man für die Kartierung benötigt aber deutlich weniger als man selbst nach der Neptunpassage an Aufnahmen gewinnen kann, man hat also genügend Zeit für andere Beobachtungen, alternativ kann man mehr Zeit für das Schwenken ansetzen als meine 1 s pro Bild.
Zu diesen Daten kämen noch die von Neptun vor dem Vorbeiflug gesendet werden. Neptun hat 64 Tage vor dem Vorbeiflug eine Größe von 200 Pixeln auf einem Bild, ab dem Zeitpunkt begann man bei Voyager mit der Far-Encounter Phase. Dies würde noch einmal ein Drittel der Datenmenge vor dem Vorbeiflug liefern.
Dazu käme der Jupitervorbeiflug. Er wertet die Mission stark auf, weil:
- Bei Jupiter die Datenrate etwa 25-mal höher ist
- Jupiter dreimal so groß ist, er ist Monate vor dem Vorbeiflug bildfüllend.
- Die Mission Jupiter sehr nahe (in 1,24 Radien Abstand) passiert. Damit hat sie als erste Raumsonde überhaupt die Chance die drei innersten Monde Amalthea, Metis und Thebe zu fotografieren und passiert erstmals seit Galileo Ios Bahn. Bedingt durch die hohe Auflösung der Kamera gelingen bei den Asteroiden-Monden Aufnahmen mit < 400 m Auflösung bei Io ist sogar ein Vorbeiflug geplant.
- Man so eine Generalprobe für den Neptunvorbeiflug machen kann und auch das Store and Dump Verfahren erproben kann.
Ich drücke Trident beide Daumen, auch wenn die Konkurrenz bei dieser Discoveryrunde sehr stark ist. Doch selbst wenn sie umgesetzt wird, werde ich 73 sein, wenn sie Triton passiert.