Wie die Kameras von Spionagesatelliten funktionieren

Auf mein heutiges Thema bin ich gekommen, nachdem ich mich wieder den Apollo-Büchern zugewandt habe, diesmal jedoch dem Band 3 mit dem Mondauto, dem Raumanzug und Experimenten. Dabei las ich bei der Recherche gestern über die Apollo Lunar Panoramic Camera und diese war eine Modifikation einer ITEK-Kamera für die Corona Spionagesatelliten. Das erinnerte mich daran, dass ich mir lange Zeit die Arbeit dieser Spionage-Satelliten völlig falsch vorgestellt hatte.

Spionagesatelliten oder besser gesagt Foto-Auflärungssatelliten (es gibt ja auch noch die Spionage mit Radar oder das Abhören des Funkverkehrs) waren schon immer etwas Mystisches. Man wusste bis in die Neunziger Jahre praktisch nichts über sie. Man konnte nur anhand der Trägerraketen und Nutzlasthüllen ihre ungefähre Größe erraten und die größten Exemplare müssten über 10 t wiegen und größer als ein Omnibus sein. Das gilt für die neuesten Exemplare übrigens immer noch.

Ich ging lange Zeit davon aus, da ich ja wusste, dass sie mit Film arbeiteten, das es eine Bodenkontrolle gab, an die Bilder einer oder mehrerer Fernsehkameras geschickt wurden, mit denen man die Erdoberfläche live, aber in niedriger Auflösung sah und wenn ein interessantes Gebiet in Sichtweite war oder etwas auffiel (eine Veränderung) drückte ein Bearbeiter auf den Knopf, machte ein Bild. Wenn es genug davon gab, wurde der Film in eine Kapsel umgespult und diese Kapsel zur Erdoberfläche deorbitiert. Das diese im Flug aufgefangen wurden, wusste man schon, diese Vorgehensweise konnte man schließlich kaum geheim halten.

Doch die Kameras waren komplett anders gebaut und auch der Ablauf war anders. Die Geschichte beginnt schon vor den Satelliten, als ITEK einen neuen Kameratyp für das Spionageflugzeug U-2 entwickelt. Wie ein Satellit soll die U-2 auf einem festen Pfad über die Sowjetunion fliegen und dabei Aufnahmen machen. Es gibt nur einen Piloten, so kann er nicht gleichzeitig die Kamera bedienen und fliegen. Der Eingriff von außen musste daher minimal sein, trotzdem sollte der Erkenntnisgewinn maximal sein. Das erreichte ITEK, indem die Kamera möglichst viel ablichtet und so neben dem Primärziel auch die Umgebung erfasst – vielleicht gibt es ja auch dort Aktivitäten.

Die Itek-Kamera wurde dann, wenn auch weiter entwickelt in den Flugzeugen U-2 und SR-71, den Satelliten des Programms Corona und eben bei Apollo eingesetzt.

Basis ist Film auf einer Rolle, mit einer ziemlichen Länge. Bei Apollo war es 127 mm Film von 1,9 km Länge, bei Corona 70 mm breiter Film von 7,5 km Länge. Die Kamera besteht aus einem katadioptischen Teleskop (Kombination aus Linse- und Spiegelteleskop zur Reduktion der Länge). Hinter der Petzval-Linse, die um 360 Grad rotiert, befindet sich ein Umlenkspiegel, danach zwei weitere Spiegel, die einen Z-förmigen Strahlengang ergeben. Hinten ist dann die Fokusebene. Der Z-förmige Strahlengang reduziert die Baulänge. Belichtet wird aber kein ganzes Bild, sondern es bleibt im Fokus nur ein Schlitz frei, der sich über die Breite des Films erstreckt. Der Film selbst läuft hinter dem Fokus durch, von zwei Rollen plan gepresst, damit die Abbildung immer scharf ist. Das Durchziehen auf den Rollen machte bei den ersten Missionen von CORONA Probleme. Dabei entsteht statische Elektrizität, die, wenn sie sich entlädt, den Film belichtet. Das war ein Problem. Das zweite war, das der Film im Satelliten spröde wurde, riss oder den Filmtransport blockierte. Man experimentierte mit mehreren Trägerstoffen und startete sogar eine Mission ohne aktive Kamera, um nur den Film zu testen. Erst mit der 13-ten Mission gelang die erste Bergung eines gut belichteten Films.

Der Transport des Films muss natürlich mit der Bewegung der Szene auf der Erde verbunden werden. Dazu gab es einen Velocity-Height Sensor, kurz V/H-Sensor. Das war ein lichtempfindliches Element im Fokus neben dem Film. Über einen Spiegel wurde das Blickfeld, das etwa 2 km groß war 4.000-mal pro Minute über den Scanbereich verschoben. Da sich die Szene durch die Geschwindigkeit bewegte, ergaben sich Veränderungen in der Helligkeit. Die Elektronik passte die Geschwindigkeit des Filmtransports so an, dass die Änderung nahe Null war. Auch dieses System war anfangs problematisch. Das Hauptproblem war die im Verhältnis zur Höhe hohe Geschwindigkeit. Eine U-2 machte Aufnahmen aus 20 km Höhe mit einer Geschwindigkeit von 250 m/s relativ zum Boden. Ein Satellit war zwar zehnmal weiter entfernt, aber bewegte sich mit 7.500 m/s relativ zum Boden, das System musste also dreimal schneller reagieren. Die ersten Missionen hatten noch keine Bewegungskompensation. Die Aufnahmen waren so leicht verschmiert. Ein Detail konnte nicht kleiner sein als das Produkt aus Orbitgeschwindigkeit x Orbitgeschwindigkeit. Selbst bei einer Tausendstel Sekunde waren so nur Objwkte die größer als 7,5 m waren abgelichtet werden. Diese Bewegungskompensation wurde aber laufend bei CORONA verbessert, was bei unveränderter Optik die Bodenauflösung von 12 auf 1,8 m erhöhte. Als zweiten Sensor gab es einen Lichtsensor, der die Helligkeit maß, was wichtig für die Belichtungszeit war. Die Belichtungszeit konnte angepasst werden, indem man die Schlitzgröße variierte zwischen 0,381 und 7,62 mm Breite.

Eine Aufnahme bestand so aus einem Streifen, der sich von vom Nadirpunkt quer zur Bewegungsrichtung erstreckte. Zum Rand hin wurde durch die perspektivische Sicht die Landschaft natürlich aus immer schrägerem Blickwinkel gesehen, was die Auflösung durch die Verzerrung limitierte. So begrenzte man den Aufnahmebereich auf 108 Grad. Das Aufnehmen eines Panoramas dauerte bei der Apollokamera, die aus den Corona-Kameras gebaut wurde, 2 Sekunden, in denen 1,2 m Film durchgezogen wurden. Ein solcher Zyklus wiederholte sich alle 6 Sekunden, sodass sich die Filmstreifen um 10 % überlappten. Die Zyklusdauer konnte variiert werden.

Die Kamera konnte für Stereoaufnahmen um 12,5 Grad nach vorne oder hinten geschwenkt werden. Das ergab einen Blickwinkel von 25 Grad zwischen den beiden Aufnahmen. Durch diese durch ein Stereoskop betrachtbaren Aufnahmen konnten Höhen bestimmt werden. In diesem Modus überlappten sich die Stereoaufnahmen zu 100 %.

Das Kameragehäuse befand sich in einer kardanischen Aufhängung, die wiederum in einem Gehäuse fixiert war. Das System war vollautomatisch und es gab nur wenige Möglichkeiten einzugreifen. Im wesentlichen konnte man die Kamera starten, stoppen oder den Film umspulen. Bei den Spionagekameras landete der Film dann in einer Kapsel die geborgen wurden. Spätere Exemplare hatten mehrere Kapseln.

Das zeigt: es ging nicht darum, Details abzulichten und einzelne Fotos zu machen. Man konnte den Betrieb eigentlich überhaupt nicht aktiv überwachen. Die Kamera wurde durch Zeitgeber gestartet und gestoppt, die so eingestellt waren, das der Spionagesatellit das Zielgebiet überflog. Durch die Unmenge an Film wurde daher relativ viel Fläche abgelichtet. Die erste erfolgreiche Mission bildete ein Fünftel der Ladefläche der UdSSR ab. Trotzdem gab man sich Mühe, Film zu sparen. Nach den ersten Generationen kamen bei steigender Startmasse zwei Weitwinkelkameras hinzu, die quadratische Aufnahmen aber mit einer Kantenlänge von über 100 km machten und nach vorne und hinten schauten, sodass sich die Aufnahmen überlappten. Sie dienten zum Anfertigen von Stereoaufnahmen niedriger Auflösung auf denen man größere Veränderungen, wie Bauvorhaben erkennen konnte. Es wurde ein militärisches Wettersatellitensystem das DMSP geschaffen, um eine Vorhersage zu machen, ob ein bestimmtes Gebiet auch wolkenfrei war und dann die Programmierung der Zeitgeber angepasst.

Dieses Prinzip hat man dann auch bei den nächsten Generationen beibehalten. Auf CORONA folgte GAMBIT. Bei GAMBIT stammte die Kamera von Kodak, arbeitete aber nach demselben Prinzip. Durch eine größere Optik stieg die Auflösung auf 90 cm bei der ersten und 60 cm bei der zweiten Generation von GAMBIT an. Die Lunar Panoramic Camera von Apollo war eine zweite Adaption. Die Optik war dieselbe wie bei Corona, sie war aber umgerüstet worden auf 127 mm breiten Film.

Viel spricht dafür das heute noch Spionagesatelliten nach diesem Prinzip arbeiten. Mit dem KH-11 hat man CCD-Sensoren eingeführt. Nur hatten diese als Flächensensor noch eine niedrige Auflösung. Kommerzielle Sensoren hatten als der erste KH-11 startete, eine Auflösung von 512 x 320 Punkten. Als man CCD-Sensoren für Galileo auswählte, einige Jahre später, bestanden von Tausend Prototypen nur ein Dutzend die Prüfungen. Auch sie hatten nur 800 x 800 Pixel. Was dagegen möglich war, war Scanzeilen. Das ist das Prinzip eines Flachbettscanners oder eines Kassenscanners. Die benötigte große Scanzeile konnte man in beliebiger Länge durch das Verbinden von einzelnen Zeilen herstellen. Man musste sie nur hinter dem Schlitz platzieren und synchron zur Bewegung auslesen. Ein aufwendiger Filmtransport konnte entfallen.

Wie die heutigen Aufklärungssatelliten funktionieren, ist geheim, das letzte Projekt dessen Informationen freigegeben wurden, waren die KH-9 „Dorian“. Aber man weiß, das kommerzielle Aufklärungssatelliten nach diesem Prinzip arbeiten. Die Satelliten der Worldview Serie setzen z.B. eine CCD-Zeile von Fairchild ein, die 28 cm lang ist mit 40.000 Pixeln pro Zeile. Allerdings rotiert nicht die Kamera. Stattdessen verwendet man TDI-Sensoren, sie haben nicht eine Scanzeile, sondern 16 bis 128. Die Elektronen, die durch die Belichtung entstehen werden dabei von eine Spalte zur nächsten hinzuaddiert. Wenn man dies über 16 Zeilen tut, so liest man nur die letzte Zeile aus (das Verschieben der Spaltenwerte erfolgt durch den Sensor selbst) und diese hat die 16-fache Belichtungszeit einer Zeile. So kann man den Fakt kompensieren, das bei einer Bodenauflösung von 1 m diese Detail schon in weniger als 1/7000-stel Sekunde an der Scanzeile vorbeigezogen ist. Kommerzielle Satelliten kommen so bis auf 30 cm Auflösung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.