Eine verpasste Chance: die gestrichene SLS Nutzlast

Eigentlich sollte eine Mission für den ersten Teststart der SLS keine große Sache sein, doch wie jetzt bekannt wurde, war die Nutzlastwahl durchaus nicht so einfach.

Alles fing mit einem Experiment an, das 2013 am Stanford Linear Accelerator Center (SLAC) durchgeführt wurde. Eine Forschergruppe der UA (University of Arizona), die auch an zahlreichen Experimenten von Raumsonden beteiligt ist und die Führung bei der 2008 gestarteten Phoenix Mission hatte, wollte die „Sequestration“ 2013 für ein Experiment nutzen. Der SLAC wurde damals gerade umgebaut für ein neues Experiment und mit der Zwangsbeurlaubung waren auch wenige Arbeiter vor Ort. Dies waren nach Ansicht der Forscher ideale Bedingungen für einen Test der interferometrischen Optik unter Weltraumbedingungen.

Interferometrie gibt es schon lange und in der Radioastronomie ist das eine weit eingesetzte Beobachtungstechnik. Das Grundprinzip ist recht einfach: Wenn zwei Teleskope oder Antennen X m voneinander entfernt sind und man die Signale zeitlich genau zuordnen kann, so kann man rechnerisch aus den beiden Signalen eines rekonstruieren, das einem Teleskop von X Metern Durchmesser entspricht. Das erprobte man zuerst bei Radioteleskopen, indem man die Signale über Leitungen in einem Punkt genau zwischen den beiden Antennen analog zusammenführte. Später, mit dem Aufkommen von Computern, installierte man bei den Empfängern Atomuhren und zeichnete die Daten auf Band auf. Ein Rechner bekam dann die Bänder mehrerer Antennen führte die Signale gleicher Zeitstempel zusammen und berechnete nach mathematischen Verfahren (Fourier-Analyse und -synthese) das theoretische Bild. So konnte man schon in den Achtziger Jahren eine synthetische Antenne mit einem Durchmesser von mehreren Tausend Kilometern konstruieren, indem man Teleskope aus Europa und den USA zusammenschaltete.

Bei Radioteleskopen klappt das sehr gut. Das liegt daran, dass sie nur einen Empfänger haben, also es nur einen „Bildpunkt“ pro Antenne gibt und Radiosignale werden zwar im Weltraum beeinflusst, nicht aber durch die Atmosphäre. Soe erfassen alle Antennen die gleichen Störungen und diese kompensieren sich. Optische Teleskope haben jedoch Sensoren die Tausende bis Millionen Bildpunkte haben und der Rechenaufwand potenziert sich so. Zudem verschmiert die Erdatmosphäre das Bild. Mit adaptiver Optik kann man das reduzieren, aber nur für jeweils einen Spiegel nicht für die ganze Länge des Interferometers. Bisher gab es nur ein Teleskop, das Interferometrie erprobt, das Very Large Teleskope der ESO, bei dem die vier 8,2 m Spiegel zu einem 200-m-Teleskop zusammengefasst werden. Die technischen Herausforderungen sind jedoch so groß, dass diese Technik nur selten und nur bei punktförmigen Quellen eingesetzt wurde. Immerhin hat man so Aufnahmen mit einer Auflösung von 4 Millibogensekunden erreicht, das entspricht einem Teleskop von 30 m Durchmesser. Theoretisch sollte die Auflösung bei der Basislänge von 200 m sieben Mal besser sein, doch zeigt dies schon, das die Atmosphäre einen Strich durch die Rechnung macht. Das VLT-Interferometer kann auch keine ausgedehnten Quellen untersuchen, sondern nur das Licht einzelner Sterne. Ein Bild kann man gewinnen, wenn man viele dieser Beobachtungen zusammensetzt. Das ist jedoch zeitintensiv und wird selten gemacht, weil jeder interferometrische Test alle vier Teleskope blockiert.

Im Weltraum sollte die Erdatmosphäre wegfallen, damit die wichtigste Störgroße. Es gab daher schon Vorschläge für interferometrische Missionen wie den Terrestial Planet Finder (TPF). Aber neben Budgetproblemen gab es immer auch das Argument, dass man die Technik vielleicht erst mal im kleinen Maßstab erproben sollte.

Die UA-Forscher nahmen den Vorschlag auf und entwickelten einen Versuchsaufbau für einen Test. Die Zeit für den Test kam, als 2013 als eine Woche lang der SLAC zur Verfügung stand. Sie brauchten eigentlich keinen Teilchenbeschleuniger, aber sie brauchten einen evakuierbaren Raum, der mindestens so lang ist, dass ein Teleskop ein scharfes Bild erzeugt. Das ist aber selbst bei einem kleinen Teleskop (die UA setzte 10“-Spiegelteleskope mit 30,48 cm Durchmesser ein) erst bei einigen Hundert Metern Entfernung der Fall und einen so langen Raum, den man evakuieren kann, um den Weltraum zu simulieren, gibt es nicht so oft. Von der Woche, die man den SLAC nutzen konnte, brauchte man 5 Tage alleine für das Abdichten aller Zugänge und Luftschächte und das Abpumpen der Luft. Dafür gab es die Pumpen schon im SLAC. Dort halten sie die Rohre in den Beschleunigern frei. Den ganzen Raum konnten sie nur auf 10-12 Pa evakuieren, doch das reichte für ein Experiment aus. Mit zwei 30 cm Teleskopen die 2 m voneinander aufgestellt waren fotografierte man eine 1 m große geätzte Platte in 3 km Entfernung. Sie enthielt fotochemisch immer kleiner werdende Gravuren in einer Aluminiumplatte. Nach einer Nacht hatten die Laborrechner das Bild rekonstruiert. Es zeigte sich, dass man Gravuren erkennen konnten, die einer Auflösung von 0,08 Bogensekunden entsprachen, das entspricht der Öffnung eines 1,5 m großen Teleskops, also 75% der Basislänge oder zwei Strichen die 1,2 mm (1/20 Zoll) voneinander entfernt waren.

Nun plädierte die UA für eine Erprobungsmission im Weltraum. Der erste Teststart der SLS ohne Nutzlast, nur um die Rakete zu erproben, offerierte hier eine Möglichkeit. Die UA schlug vor, zwei Teleskope von 60 bis 100 cm Durchmesser in den Weltraum zu bringen. Sie sollten durch zwei Gitterrohrmasten 20-24 m voneinander entfernt werden. Um Kosten zu begrenzen, nutzt man die große Nutzlastverkleidung der SLS aus und montiert die Gitterohrradapter auf der Erde zusammen und klappt sie nur im Orbit auseinander, anstatt eine entfaltbare, teure und leichtere Konstruktion wie den entfaltbaren Mast wie bei NUSTAR einzusetzen. Als Bus wurde ein kommerzieller Bus wie der Geostar-2 Bus von Orbital vorgeschlagen. Die Daten würden zur Erde übertragen werden und mit einem Rechnercluster ausgewertet werden. Eine spätere operationelle Mission sollte sie an Bord auswerten, wofür man entweder GPU-Cluster oder maskenprogrammierte ASIC mit hardwareverdrahteten Algorithmen einsetzen würde. Die UA meinte eine solche Testmission wäre mit 200 Millionen Dollar zu machen und würde nicht nur Ergebnisse liefern, die eine Entscheidung über die Technik vereinfachen, sondern auch nutzbringend eingesetzt werden können. Man würde ein Teleskop von mindestens 15 m Äquivalentdurchmesser im Weltraum haben, und wenn auch die kleinen Teleskope nicht so lichtstark sind, gäbe es genügend Quellen, die man untersuchen könnte.

Das NASA Headquarter lehnte ab, die Budgetlage wäre zu angespannt. Damit sich die UA nicht zufrieden. Sie konnte Fremdmittel vorweisen und durch Kooperationen vor allem mit Frankreich wären die Instrumente auch billiger. Nun musste man bei der NASA Farbe bekennen und es zeigte sich, dass es gar keine Finanzierungsfrage war. Vielmehr hatten zwei der NASA-Zentren massiv gegen das Projekt Einwände vorgebracht: das STSCi und das JPL. Beim STSCi wurde darauf verwiesen, dass man gerade Mühe habe die Finanzierung des JWST vom Kongress zu bekommen. Wenn nun eine neue Technik ein Teleskop mit viel größerem Durchmesser zu einem Bruchteil der Kosten ermöglicht. Politiker würden nicht den Unterschied erkennen, dass das JWST z.B. im infraroten Spektralbereich arbeitet und der 6,5 m große Spiegel es erlaubt, viel schwächere Objekte zu untersuchen. Man wäre aber bereit nach einem Start des JWST das Projekt zu unterstützen.

Viel mehr Gegenwind gab es vom JPL. Das JPL argumentierte, dass der Einsatz dieser Technologie der Tod für die meisten Raumsondeprogramme wäre. Alle Missionen leben von Bildern. Neue Bilder, höher aufgelöste, spektakuläre Bilder. Ein Interferometer im Orbit würde in einer ersten Version schon Bilder liefern, die bei den Planeten einer Auflösung von einigen Kilometern entsprechen. Das ist das, was Cassini oder Galileo von Saturn und Jupiter als Ergebnis liefern. Technisch möglich wären nach internen Untersuchungen aber auch getrennte Teleskope auf eigenen Satelliten, die mit Laserentfernungsmessung erheblich größere Abstände zueinander einnehmen können, einige Kilometer wären denkbar. Dann wären aber praktisch alle geplanten Raumsondenprogramme mit Ausnahme von Landern überflüssig. Es gäbe zwar genug weitere In Situ Messungen und auch die großen Datenmengen könnte man so nicht gewinnen, man sehe aber große Probleme auch nur mittelgroße Missionen, geschweige den Großmissionen wie Europa Clipper dann noch finanziert zu bekommen.

So wird die SLS nur Cubesats transportieren. Frankreich, das an den Planungen beteiligt war, denkt inzwischen aber über eine eigene Mission nach: LIBO (Large Interferometric BinOkular) soll der ESA als neue Mission beim nächsten Ministerratstreffen vorgeschlagen werden.

2 thoughts on “Eine verpasste Chance: die gestrichene SLS Nutzlast

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.