Die Zahl für heute: 5.173
Bevor ich zu der Bedeutung der Zahl für heute komme, will ich erst mal alle die noch einen klassischen Desktop-Pc haben, also einen mit einem einfach zu öffnenden Gehäuse, bei dem man auf das Motherboard schauen kann, bitten mal auf diese Platine zu schauen und die Chips zu zählen. Das ist heute recht einfach, denn es steckt das Meiste in wenigen großen Bausteinen, dazu noch einige kleinere. Die meisten Chips dürften in den RAM-Modulen stecken, immer vielfache von 8 Chips. Also ich denke die meisten werden unter 50 Chips kommen, wer nicht gerade enorm große DIMM-Module hat, liegt auch bei vier Modulen noch unter 100. Wie lange hält so ein PC? Also meine beiden letzten habe ich bis technische Defekte auftraten genutzt, jeweils etwa sieben Jahre lang. Beim letzten lag es an einem defekten RAM Riegel.
Was meint ihr, wie lange arbeitet ein PC mit 5.173 Bausteinen? Da jeder Baustein ja eine Quelle für einen Ausfall ist, dürfte man annehmen, dass er deutlich kürzer lebt – weit gefehlt, so ein „PC“ kann nahezu 50 Jahre ohne Ausfall arbeiten.
Damit komme ich zur Auflösung: 5.173 das ist die Anzahl der CMOS Bausteine von RCA die nach Firmenangaben in jeder Voyager Raumsonde stecken. Zu einer Diskussion über die Zahl komme ich noch. Voyager hat drei Bordrechner, bezeichnet als CCS, AACS und FDS. Nur das letzte System, das FDS oder Flight Data Subsystem setzte CMOS Bausteine von RCA aus der 4000-er Serie ein. Die anderen Rechner dagegen Bausteine der 54xxx Serie, einem Ableger der bekannteren 74xxx Serie für militärische Anwendungen mit höheren Spezifikationen an die maximal tolerierbaren Umgebungsbedingungen.
Das ist auch eine enorm große Zahl, selbst wenn man weiß, das alleine 1.024 davon auf das RAM pro Sonde entfallen. Die Zahl stammt aus einer Werbeanzeige von RCA. Ich vermute, die 10.346 Chips die RCA für zwei Voyagers, also 5.173 pro Schiff geliefert hat, ist die Gesamtzahl der Chips, die die NASA abgenommen hat, nicht die Zahl die in den Rechnern steckt. Denn zum einen wurden natürlich jede Menge Tests durchgeführt und dann gibt es noch Prototypen, Exemplare des FDS für Entwicklung der Software und andere Zwecke und es wurde eine dritte Voyager als Ingenieursexemplar gebaut, die vollständig bis auf die RTG war. Das Evalutionsboard der CPU des FDS verwandte 150 Bausteine, sodass mir der Sprung von 150 auf rund 4.100 (ohne Speicher) doch als sehr groß erscheint. 100 bis 200 Bausteine für eine CPU waren dagegen damals normal. Ich habe meine Zweifel, das man 4.000 Bausteine händisch, Software dafür gab es ja damals, Mitte der Siebziger Jahre, noch nicht, verdrahten könnte.
Um die vielen Chips unterzubringen waren die Boards vollgestopft mit Chips. Zwei Abbildungen zeigen voll bestückte 7 x 14 Zoll Boards mit einem 27 x 12 Chiplayout oder maximal 324 Chips pro Board. So benötigt man mindestens acht Platinen für einen der beiden Computer. Der Speicher bestand aus vier Platinen (4 Signalebenen) im 3 x 3-Zoll-Format jede Platine mit 128 Speicherchips und 12 Treiber IC bestückt. Die Kosten lagen in einem „low hundred-thousand-dollar range“. Ein Wort ist in 16 Bausteinen gespeichert, das bedeutet, dass wenn ein Speicherchip defekt ist, gleich 256 Worte des Speichers wegfallen.
Der Speicher bestand aus den Bausteinen RCA 4061A. Das ist ein statisches 256 x 1 Bit CMOS RAM. Die Chipfläche beträgt 2,4 x 2,7 mm. Das bedeutet, dass ein Normalsichtiger Mensch ein einzelnes Bit noch mit dem bloßen Auge erkennen kann. In etwa 50 cm Abstand vom Auge ist die Schwelle, wo man bei 100 % Sehschärfe die Auflösung hat, um die Schaltung zu erkennen, die ein Bit formt (ein Flip-Flop). Der Grund für die niedrige Integrationsdichte liegt daran, dass die NASA das auswählt, was bei Projektstart verfügbar ist und erprobt. Bausteine die 1.024 Bit speicherten, kamen während Voyager entwickelt wurde auf den Markt, die Entwicklung dauerte schließlich fünf Jahre. Sie wurden aber erst in Galileo eingesetzt, dass noch mehr Speicherbausteine benötigte – die Sonde hatte ingesamt 208 KByte Speicher und brauchte so 1.664 Bausteine für den Speicher.
Die Entscheidung für CMOS fiel, weil diese Technologie sehr große Spannungen an den Eingangspins verträgt. Zum einen kann die Betriebsspannung deutlich überschritten werden ohne das der Chip ausfällt, zum anderen kann die Spannung bis 45 Prozent des Nominalwerts betragen ohne das ein High-Pegel erkannt wird. Das ist wichtig, weil Leitungen viel mehr Elektronen in Jupiters Strahlengürtel einfangen, als die kleine Fläche, die ein Bit einnimmt. Man passte den Herstellungsprozess bei RCA an, sodass die Chips für ein Strahlungslevel von 10 Krad qualifiziert waren. Heute gelten 25 krad als das übliche Kriterium für überflutungstolerante Bauteile. Kritische Bauteile können noch höhere Strahlungslevel tolerieren
Die Bausteine der CD4000A Serie waren für eine MTBF von 64 Millionen Stunden qualifiziert. Das klingt erst mal nach viel, es sind über 7.300 Jahre pro Chip. Allerdings pro Chip, denn wenn man mehrere Tausend davon in einer Raumsonde hat, dann rutscht man doch in eine überschaubare Frist bis zum ersten Ausfall, da jeder Chip eine Ausfallquelle ist. Bei 1000 Chips sinkt das Ausfallrisiko von 64 Millionen auf 64.000 Stunden. Bis Oktober 1980 hatten alle Chips zusammen nach RCA-Angaben schon 193 Millionen Stunden auf dem Zähler – was für etwa 3.400 Chips pro Sonde stehen würde. Inzwischen sind es über 4.400 Millionen Stunden. Allerdings gab es auch schon mehrere Ausfälle beim RAM-Speicher und ein FDS von vieren in beidne Sonden ist komplett ausgefallen.
Voyagers Bordcomputer waren die letzten in Raumsonden, die noch eigens für diesen Zweck konstruiert wurden. Das war vorher der Normalfall gewesen. Einige Projekte die damals anliefen, aber später starteten, setzten auch noch solche Computer ein, die auf den Zweck maßgeschneidert waren, auch wenn man begann diese zu standardisieren, so den DF-224 den das Hubble Weltraumteleskop einsetzte. Danach wurden kommerziell verfügbare Mikroprozessoren eingesetzt. Die bemannte Raumfahrt machte hier den Anfang – die Bordcomputer von Skylab und des Space Shuttles waren angepasste Versionen des IBM Systems /360, wenngleich noch keine Mikroprozessoren.
Damals hatten alle Hersteller eigene Linien für das Militär, bei denen die Bausteine strahlenresistenter als die normale Serie waren, höhere Temperaturen oder Spannungen vertrugen. Galileo als Nachfolger war eine der ersten Raumsonden mit einem Mikroprozessor. Er ersetzte mehrere Hundert der MSI-Bausteine, aus denen die CPU von Voyager bestand. Der Nachteil war allerdings, dass die Elektronik in Satelliten und Raumfahrzeugen der irdischen immer hinterherhinkte. Das ergab sich aus den Projektlaufzeiten. Ein Raumsondenprojekt dauerte damals rund 5 Jahre von der Genehmigung bis zum Start, heute kann das durchaus noch länger sein. In der Frist werden bei Mikroprozessoren zwei Generationen auf den Markt gebracht. Logischerweise kann man bei Projektstart nur die verfügbare Hardware selektieren und oft nicht mal die neueste, weil es schon Erfahrungen geben muss, Werkzeuge für die Programmierung und eben eine Version in „military grade“ verfügbar sein muss. das ist dann meist die letzte Generation und nicht die aktuelle. Der deutsche Röntgenastronomiesatellit Rosat hatte einen Intel 8086 als Prozessor. Er sollte 1988 starten, durch den Verlust der Challenger kam es erst 1990 dazu. Da war schon der 80486 auf dem Markt also drei (genaugenommen, wenn man den 80186 hinzuzählt, vier) Generationen weiter.
Um die Jahrtausendwende änderte sich dies wieder. Die Hersteller von Mikroprozessoren beendeten ihre eigenen Linien für das Militär. Der Markt war weniger wichtig geworden. Der Konsumerabsatz hatte sich exponentiell vergrößert, während durch die Abrüstung nach dem Zusammenbruch des Ostblocks viel weniger militärisches Gerät benötigt wurde. Firmen oder Raumfahrtagenturen lizenzieren nun Prozessorarchitekturen und entwarfen eigene strahlungsresistente Chips auf deren Basis, so die PowerPC Architektur oder die SPARC Architektur. Diese hinken aber noch mehr in Integrationsdichte hinterher, denn die Kosten für die Anpassung einer Chiplinie steigen rapide, wenn man die Strukturen verkleinert. Der neueste aktuell in der ESA eingesetzte Prozessor GR740 auf Basis der SPAC V8 Architektur ist im 65 nm Prozess hergestellt, hat vier Kerne und ist mit 250 MHz getaktet. Das entspricht der Integrationsdichte, die 2006 erstmals ein Pentium 4 erreichte. Gegenüber dem Pentium 4 ist der Takt des GR740 aber deutlich geringer, dafür gibt es vier Kerne. Durch den höheren Takt hatte ein Pentium 4 D aber trotzdem 4.100 MIPS während der GR740 auf 1.700 MPIS kommt. Die Core Mikroarchitektur mit derselben Strukturbreite kam sogar auf 10.000 MIPS.
Heute wird nicht mehr in MIPS gemessen, aber ein nicht mehr aktueller Intel Prozessor der 12-ten Generation Ix-12yyyy, wie er in meinem PC steckt, schafft bei einem P-Kern 3,4 Instruktionen pro Takt und in einem E-Kern immerhin noch 2,2. Mein I5-12400 hat 6 Performance-Kerne und taktet bis 4,4 GHZ, sollte also 4,4 GHz x 6 Cores x 3,4 IPC/Core = 89.760 MIPS liefern. Voyagers Bordrechner hatten je nach System eine Leistung von 0,011 bis 0,08 MIPS. Aber sie laufen immer noch, zumindest so lange bis die NASA sie wegen Sparmaßnehmen von Trump nicht abschaltet.
„überflutungstolerante Bauteile“ ?!? Ich weiß was Du meinst, aber das liest sich wie eine schlechte KI Übersetzung….
Bei der Zuverlässigkeitsberechnung gibt es mehrere Verfahren; es ist zwar schon eine Weile her, dass ich mit damit auseinandersetzen durfte, aber: Die einfachste Art ist die Zählung der Bauteile. Da kommt man dann eben auf genau diese Werte wie du sie genannt hast. Was dabei nicht berücksichtigt ist, sind redundante Designs. Im einfachsten Falle Verdoppelung, manchmal auch Vervierfachung von diskreten Komponenten. Mit einer FMEA Analyse kann man dann sehen, ob und wie das Design bei Ausfall eines Bauteils noch zuverlässig funktioniert oder nicht. Ist natürlich recht aufwendig und wie so oft, gibt es auch immer weniger Leute die das wirklich beherrschen.