Bei der Raumfahrt wird ja alles selbst entwickelt oder wenn es so was wie Serien gibt, dann ist es die Kleinserie. Das ist sehr oft kein Problem. In vielen Branchen ist die Einzelanfertigung ja noch die Regel. Natürlich im Handwerk, aber auch in der Luftfahrt, aus der sich die Raumfahrt zumindest von ihrer industriellen Basis her entwickelte. Wer ein eigenes selbst konstruiertes Flugzeug haben will, kann sich noch heute eines bauen lassen. Dasselbe gilt im Instrumentenbau – Großinstrumente waren schon immer Einzelanfertigungen. Es gibt nur eine Industrie wo das nicht der Fall ist: Die Mikroelektronik.
Das Kennzeichen der Herstellung von integrierten Schaltungen, ist das der Prozess weitgehend automatisch abläuft, extrem hohe Anforderungen an die Reinheit der Umgebung hat und immer hunderte von Chips gleichzeitig bearbeitet. Er ähnelt dem Drucken von Zeitungen. Zeit, mal die bisherige Geschichte der Mikroelektronik in der Raumfahrt zu betrachten.
In den sechziger und Siebziger Jahren waren die Computer noch aus diskreten Bauteilen aufgebaut wie Transistoren oder manuell hergestellten Ringkernspeichern. Später kamen einfache integrierte Schaltungen in LSI und MSI Technik dazu. Für diese Elemente in niedriger Dichte, war noch ein geringer Aufwand nötig und die Industrie nahm damals auch noch gerne Fremdaufträge an, um ihre Fertigung auszulasten, die sich an die Computerhersteller richtete und da waren auch die Stückzahlen begrenzt.
Es kam dann die Periode, in der Standardprozessoren verwendet wurden, wenn sie den Anforderungen genügten. Das war während der achtziger und frühen Neunziger der Fall. Hubble bekam einen 80386, Rosat einen 8086, die Transputer kamen in viele Satelliten und Raumfahrzeuge.
Seitdem gibt es ein Problem: Die Hardware die serienmäßig produziert wird, ist nicht mehr weltraumtauglich. Die früher üblichen Serien mit militärische Spezifikationen (höherer tolerierbarer Temperaturbereich, höhere Strahlungstolernz) gibt es bei modernen Prozessoren nicht mehr, Die NASA erwarb mal von Intel das Design des Pentium, um auf ihm basierend eigene Prozessoren zu kreieren, kam aber nie dazu und inzwischen hat es Intel wieder zurückgekauft, sonst hätte die Firma bei ihren Atom-Prozessoren ein kleines Lizenzproblem. Die Investitionskosten für die nächste Chipgeneration steigen aufgrund der immer höheren Anforderungen an. Sie liegen derzeit bei mehreren Milliarden Dollar pro „Fab“ (Farbik). Entsprechend fertigen immer weniger Hersteller Chips in der kleinsten möglichen Strukturbreite. Bei der aktuellen sind es nur noch Intel und zwei Konglomerate. Außer Intel leistet sich keine Firma alleine mehr die Investitionskosten in eine Fab – schwer zu vorstellen, dass sich diese dann für die kleinen Stückzahlen für die Raumfahrt rentieren würden.
Seitdem hinkt die für Weltraumtechnik verfügbare Technologie der irdischen hinterher. Der schnellste verfügbare Prozessor ist der RAD-750. Er basiert auf dem PowerPC Prozessor 750 aus dem Jahr 1998. Er ist in etwa so schnell wie ein Pentium II PC – und seit er ist seit 2005 verfügbar. Seitdem gab es keine neue Generation. Er befindet sich auf 150 Satelliten – viel für Raumfahrtmaßstäbe, aber wenig für die kommerzielle Fertigung, vor allem, wenn sich diese Zahl auch noch auf 6 Jahre verteilt. Es gab ihn also erst 7 Jahre nach dem PC-Vorläufer und anders als bei diesem gibt es nicht alle 2-3 Jahre eine neue Generation. Das verschärft die Situation in der Zukunft noch weiter.
Hoffnung ist nicht in Sicht: Da die Preise für kleinere Strukturbreiten bei einer nächsten Generation für die Fertigung ansteigen, wird es schwer sein diese Kosten für die nächste Generation zu rechtfertigen. Welche Lösungen gibt es dann?
Eine Lösung, wenn man nur für eine bestimmte Funktion viel Rechenleistung benötigt, ist es für diesen Zweck eigene Hardware zu fertigen. Wer ein älteres Semester ist, kennt vielleicht noch den 80×87 Coprozessor der Berechnungen schneller durchführen konnte – um den Faktor 10-20, bei Funktionen wie Logarithmus oder Sinus sogar noch mehr. Ein aktuelles Beispiel sind die Chips, die in Fernsehern stecken um die komprimierten Signale des H264 Formats in HD-Videos auszurechnen. Wenn das Software macht, wie im PC noch vor 1-2 Jahren üblich, dann benötigt man dazu einen Dual-Core Prozessor. Im Fernseher reicht ein wesentlich einfacher Chip. der typische Gewinn liegt beim Faktor 10-100 wenn man Software durch Hardware ersetzen kann. je nach Komplexität und Paralellisierbarkeit Das ist für die Datenverarbeitung ein Weg, so erfuhr ich bei einem Besuch eines Frauenhofer IMS, dass dort ein Chip für TerraSAR-X entwickelt wurde. Nur sind die dort gebauten Custom-Gate Arrays begrenzt in der Transistorzahl, noch mehr als die aktuellen Prozessoren für die Raumfahrt. Der RAD-750 hat 10,4 Millionen Transistoren (heutige Prozessoren für den PC über 2 Milliarden). IMS kann bis 0,5 µm Strukturbreite Chips mit bis zu 30.000 Gattern, das sind 120.000 Transistoren, fertigen.
So ist heute es noch ein zweiter Weg möglich: FPGA. Sie sind anders als ASICs nachträglich programmierbar und werden mittlerweile in größeren Stückzahlen hergestellt, was es ermöglicht sie auf ähnlichen Fertigungsstraßen wie Prozessoren herzustellen. Bis zu 10 Millionen Gatter und 1,5 GHz sind zumindest für nicht-weltraumtaugliche Hardware verfügbar. Dann muss allerdings noch die Weltraumtauglichkeit geprüft werden. Ein deutscher Kleinsatellit sollte deren Einsatzmöglichkeiten erproben.
Die Alternative ist es „normale“ Hardware zu verwenden, im Fachjargon immer gerne als COTS bezeichnet – Common off the Shelf. Die Technologiesonde ST-8 sollte z.B. herkömmliche PC-Technik erproben. Die Empfindlichkeit der herkömmlichen PC-Technik soll durch Redundanz sowohl bei den Prozessoren wie auch beim Speicher kompensiert werden. Dazu kommt ein strahlengehärteter FPGA-Controller, der nachprüft ob alle Teile noch richtig rechnen oder ein Prozessor abgestürzt ist oder es Defekte beim Speicher gibt. Sofern es nur temporäre Ausfälle gibt, also als Paradebeispiel ein Bit durch ein geladenes Teilchen umkippt. Wogegen dies nicht hilft, sind permanente Schäden, wie sie durch statische Elektrizität auftreten können. Die Technologien für Redundanz sind nicht gerade neu. Entweder man legt ein System mehrfach aus, wir kennen das auf der Erde als RAID-1, wenn zwei Festplatten dieselbe Information speichern. Bei Halbleiterspeichern ist es gängiger, sie gleich dreifach redundant auszulegen und dann eine Mehrfachentscheidung zu fällen. Bei Prozessoren muss man diese synchronisieren, wie dies z.B. bei den Shuttle Hauptcomputern der Fall war – in periodischen Intervallen werden sie angehalten und geprüft ob sie noch arbeiten, oder ein Kontrollergebnis bei allen Prozessoren das gleiche ist. Bei Speichern ist es üblicher, heute sie mit Standardfehlerkorrekturen wie ECC zu versehen.
Die dritte Lösung, die ich mal so in die Diskussion werfe, ist das Abschirmen. Auf der ISS arbeiten normale PC’s. Zumindest bei den mobilen Rechnern sind nur leicht modifizierte Laptops üblich (Schnittstellen die nicht benutzt werden geerdet und Zugänge durch Blenden abgedeckt, besserer Schutz gegen statische Elektrizität). Die Strahlendosis ist in den Labors so weit abgeschirmt, dass sie nicht mal Menschen gefährlich wird, die noch empfindlicher als Elektronik sind. Bei den bekannten Massen der Hüllen der Labors entspricht die Abschirmung einer von 33 kg/m² MPLM bis 80 kg/m² (Columbus). Das sind 1-3 cm Aluminium, woraus die Wand üblicherweise besteht. Da heute PC-Technik recht wenig Platz braucht (denken sie an einen Laptop, Smartphone, Ipad …) wäre eine analoge Abschirmung auch bei Satelliten tolerierbar. Nimmt man an, dass man die gesamte Elektronik in einem Quader von 20 x 10 x 10 cm Größe unterbringen kann (2 l Volumen, ein Nettop-PC, denn die ct‘ in der ct 2/2012 testete, hatte nur 0,8 l Volumen), so wiegt die Abschirmung zwar 4 bis 8 kg zusätzlich – doch das denke ich ist verschmerzbar. Man müsste eben wieder zu einer zentralen Datenverarbeitung zurückkehren, also nicht wie heute üblich dass jedes Experiment seine eigene Elektronik lokal direkt am Instrument mitbringt und man entweder diese in das Computersystem integriert oder dieses leistungsfähig ist, dass gar keine eigene Elektronik für Instrumente nötig ist.
Ich denke auf Dauer wird man nur eine von beiden Ansätzen nehmen können. Da auch bei COTS Hardware aufgrund der immer stärkeren Empfindlichkeit der Hardware der Aufwand für die Synchronisation und Erhaltung der Konsistenz der Daten ansteigt, halte ich die Abschirmung für die bessere Möglichkeit, die ja hier auch nur überschlägig berechnet ist. Der Schutz ist sicher noch auf die tatsächlich nötige Abschirmung optimierbar. (Stärke, Material…). Die immer höheren Datenraten von Instrumenten die ja auch verarbeitet und zwischengespeichert werden müssen, werden mehr Prozessorpower nötig machen.