Das Computerdilemma in der Raumfahrt

Bei der Raumfahrt wird ja alles selbst entwickelt oder wenn es so was wie Serien gibt, dann ist es die Kleinserie. Das ist sehr oft kein Problem. In vielen Branchen ist die Einzelanfertigung ja noch die Regel. Natürlich im Handwerk, aber auch in der Luftfahrt, aus der sich die Raumfahrt zumindest von ihrer industriellen Basis her entwickelte. Wer ein eigenes selbst konstruiertes Flugzeug haben will, kann sich noch heute eines bauen lassen. Dasselbe gilt im Instrumentenbau – Großinstrumente waren schon immer Einzelanfertigungen. Es gibt nur eine Industrie wo das nicht der Fall ist: Die Mikroelektronik.

Das Kennzeichen der Herstellung von integrierten Schaltungen, ist das der Prozess  weitgehend automatisch abläuft, extrem hohe Anforderungen an die Reinheit der Umgebung hat und immer hunderte von Chips gleichzeitig bearbeitet. Er ähnelt dem Drucken von Zeitungen. Zeit, mal die bisherige Geschichte der Mikroelektronik in der Raumfahrt zu betrachten.

In den sechziger und Siebziger Jahren waren die Computer noch aus diskreten Bauteilen aufgebaut wie Transistoren oder manuell hergestellten Ringkernspeichern. Später kamen einfache integrierte Schaltungen in LSI und MSI Technik dazu. Für diese Elemente in niedriger Dichte, war noch ein geringer Aufwand nötig und die Industrie nahm damals auch noch gerne Fremdaufträge an, um ihre Fertigung auszulasten, die sich an die Computerhersteller richtete und da waren auch die Stückzahlen begrenzt.

Es kam dann die Periode, in der Standardprozessoren verwendet wurden, wenn sie den Anforderungen genügten. Das war während der achtziger und frühen Neunziger der Fall. Hubble bekam einen 80386, Rosat einen 8086, die Transputer kamen in viele Satelliten und Raumfahrzeuge.

Seitdem gibt es ein Problem: Die Hardware die serienmäßig produziert wird, ist nicht mehr weltraumtauglich. Die früher üblichen Serien mit militärische Spezifikationen (höherer tolerierbarer Temperaturbereich, höhere Strahlungstolernz) gibt es bei modernen Prozessoren nicht mehr, Die NASA erwarb mal von Intel das Design des Pentium, um auf ihm basierend eigene Prozessoren zu kreieren, kam aber nie dazu und inzwischen hat es Intel wieder zurückgekauft, sonst hätte die Firma bei ihren Atom-Prozessoren ein kleines Lizenzproblem. Die Investitionskosten für die nächste Chipgeneration steigen aufgrund der immer höheren Anforderungen an. Sie liegen derzeit bei mehreren Milliarden Dollar pro „Fab“ (Farbik). Entsprechend fertigen immer weniger Hersteller Chips in der kleinsten möglichen Strukturbreite. Bei der aktuellen sind es nur noch Intel und zwei Konglomerate. Außer Intel leistet sich keine Firma alleine mehr die Investitionskosten in eine Fab – schwer zu vorstellen, dass sich diese dann für die kleinen Stückzahlen für die Raumfahrt rentieren würden.

Seitdem hinkt die für Weltraumtechnik verfügbare Technologie der irdischen hinterher. Der schnellste verfügbare Prozessor ist der RAD-750. Er basiert auf dem PowerPC Prozessor 750 aus dem Jahr 1998. Er ist in etwa so schnell wie ein Pentium II PC – und seit er ist seit 2005 verfügbar. Seitdem gab es keine neue Generation. Er befindet sich auf 150 Satelliten – viel für Raumfahrtmaßstäbe, aber wenig für die kommerzielle Fertigung, vor allem, wenn sich diese Zahl auch noch auf 6 Jahre verteilt. Es gab ihn also erst 7 Jahre nach dem PC-Vorläufer und anders als bei diesem gibt es nicht alle 2-3 Jahre eine neue Generation. Das verschärft die Situation in der Zukunft noch weiter.

Hoffnung ist nicht in Sicht: Da die Preise für kleinere Strukturbreiten bei einer nächsten Generation für die Fertigung ansteigen, wird es schwer sein diese Kosten für die nächste Generation zu rechtfertigen. Welche Lösungen gibt es dann?

Eine Lösung, wenn man nur für eine bestimmte Funktion viel Rechenleistung benötigt, ist es für diesen Zweck eigene Hardware zu fertigen. Wer ein älteres Semester ist, kennt vielleicht noch den 80×87 Coprozessor der Berechnungen schneller durchführen konnte – um den Faktor 10-20, bei Funktionen wie Logarithmus oder Sinus sogar noch mehr. Ein aktuelles Beispiel sind die Chips, die in Fernsehern stecken um die komprimierten Signale des H264 Formats in HD-Videos auszurechnen. Wenn das Software macht, wie im PC noch vor 1-2 Jahren üblich, dann benötigt man dazu einen Dual-Core Prozessor. Im Fernseher reicht ein wesentlich einfacher Chip. der typische Gewinn liegt beim Faktor 10-100 wenn man Software durch Hardware ersetzen kann. je nach Komplexität und Paralellisierbarkeit Das ist für die Datenverarbeitung ein Weg, so erfuhr ich bei einem Besuch eines Frauenhofer IMS, dass dort ein Chip für TerraSAR-X entwickelt wurde. Nur sind die dort gebauten Custom-Gate Arrays begrenzt in der Transistorzahl, noch mehr als die aktuellen Prozessoren für die Raumfahrt. Der RAD-750 hat 10,4 Millionen Transistoren (heutige Prozessoren für den PC über 2 Milliarden). IMS kann bis 0,5 µm Strukturbreite Chips mit bis zu 30.000 Gattern, das sind 120.000 Transistoren, fertigen.

So ist heute es noch ein zweiter Weg möglich: FPGA. Sie sind anders als ASICs nachträglich programmierbar und werden mittlerweile in größeren Stückzahlen hergestellt, was es ermöglicht sie auf ähnlichen Fertigungsstraßen wie Prozessoren herzustellen. Bis zu 10 Millionen Gatter und 1,5 GHz sind zumindest für nicht-weltraumtaugliche Hardware verfügbar. Dann muss allerdings noch die Weltraumtauglichkeit geprüft werden. Ein deutscher Kleinsatellit sollte deren Einsatzmöglichkeiten erproben.

Die Alternative ist es „normale“ Hardware zu verwenden, im Fachjargon immer gerne als COTS bezeichnet – Common off the Shelf. Die Technologiesonde ST-8 sollte z.B. herkömmliche PC-Technik erproben. Die Empfindlichkeit der herkömmlichen PC-Technik soll durch Redundanz sowohl bei den Prozessoren wie auch beim Speicher kompensiert werden. Dazu kommt ein strahlengehärteter FPGA-Controller, der nachprüft ob alle Teile noch richtig rechnen oder ein Prozessor abgestürzt ist oder es Defekte beim Speicher gibt. Sofern es nur temporäre Ausfälle gibt, also als Paradebeispiel ein Bit durch ein geladenes Teilchen umkippt. Wogegen dies nicht hilft, sind permanente Schäden, wie sie durch statische Elektrizität auftreten können. Die Technologien für Redundanz sind nicht gerade neu. Entweder man legt ein System mehrfach aus, wir kennen das auf der Erde als RAID-1, wenn zwei Festplatten dieselbe Information speichern. Bei Halbleiterspeichern ist es gängiger, sie gleich dreifach redundant auszulegen und dann eine Mehrfachentscheidung zu fällen. Bei Prozessoren muss man diese synchronisieren, wie dies z.B. bei den Shuttle Hauptcomputern der Fall war – in periodischen Intervallen werden sie angehalten und geprüft ob sie noch arbeiten, oder ein Kontrollergebnis bei allen Prozessoren das gleiche ist. Bei Speichern ist es üblicher, heute sie mit Standardfehlerkorrekturen wie ECC zu versehen.

Die dritte Lösung, die ich mal so in die Diskussion werfe, ist das Abschirmen. Auf der ISS arbeiten normale PC’s. Zumindest bei den mobilen Rechnern sind nur leicht modifizierte Laptops üblich (Schnittstellen die nicht benutzt werden geerdet und Zugänge durch Blenden abgedeckt, besserer Schutz gegen statische Elektrizität). Die Strahlendosis ist in den Labors so weit abgeschirmt, dass sie nicht mal Menschen gefährlich wird, die noch empfindlicher als Elektronik sind. Bei den bekannten Massen der Hüllen der Labors entspricht die Abschirmung einer von 33 kg/m² MPLM bis 80 kg/m² (Columbus). Das sind 1-3 cm Aluminium, woraus die Wand üblicherweise besteht. Da heute PC-Technik recht wenig Platz braucht (denken sie an einen Laptop, Smartphone, Ipad …) wäre eine analoge Abschirmung auch bei Satelliten tolerierbar. Nimmt man an, dass man die gesamte Elektronik in einem Quader von 20 x 10 x 10 cm Größe unterbringen kann (2 l Volumen, ein Nettop-PC, denn die ct‘ in der ct 2/2012 testete, hatte nur 0,8 l Volumen), so wiegt die Abschirmung zwar 4 bis 8 kg zusätzlich – doch das denke ich ist verschmerzbar. Man müsste eben wieder zu einer zentralen Datenverarbeitung zurückkehren, also nicht wie heute üblich dass jedes Experiment seine eigene Elektronik lokal direkt am Instrument mitbringt und man entweder diese in das Computersystem integriert oder dieses leistungsfähig ist, dass gar keine eigene Elektronik für Instrumente nötig ist.

Ich denke auf Dauer wird man nur eine von beiden Ansätzen nehmen können. Da auch bei COTS Hardware aufgrund der immer stärkeren Empfindlichkeit der Hardware der Aufwand für die Synchronisation und Erhaltung der Konsistenz der Daten ansteigt, halte ich die Abschirmung für die bessere Möglichkeit, die ja hier auch nur überschlägig berechnet ist. Der Schutz ist sicher noch auf die tatsächlich nötige Abschirmung optimierbar. (Stärke, Material…). Die immer höheren Datenraten von Instrumenten die ja auch verarbeitet und zwischengespeichert werden müssen, werden mehr Prozessorpower nötig machen.

12 thoughts on “Das Computerdilemma in der Raumfahrt

  1. Eine vollständig zentrale Datenverarbeitung wird es meiner Ansicht nach in Zukunft nicht mehr geben, weil man ja seit einigen Jahren schon dazu übergeht, einzelne kleine Sensoren mit einer Zusatzelektronik auszustatten, so das man sie gleich an ein Bussystem anschliessen kann. In der industiellen Steuerungstechnik ist z.B. der ASi-Bus verbreitet, mit dem einzelne Sensoren (oder Aktoren) an einer Steuerungseinheit (meisst eine SPS) angeschlossen werden. Es geht aber auch schon zu den „einfachen“ elektronischen Bauteilen herunter. Wenn man zum Beispiel bei Texas Instruments nach Temperatursensoren sucht, dann findet man da komplette ICs, die über eine 2-Draht-Leitung oder einen I2C-Bus an einen Mikro Controller angeschlossen werden müssen. – So Sachen, wie temperaturabhängige Widerstände muss man schon suchen. Und dafür braucht man ja auch noch weitere Teile zum linearisieren, weil die Tempraturabhängigkeit nur in bestimmten intervallen annähernd linear verläuft, – ansonsten steckt da eine mehr oder weniger komplizierte Exponentialfunktion dahinter, die die Abhängigkeit des Widerstandes von der Temperatur beschreibt. Und das ist bei anderen Sensoren nicht viel anders, so das es gar nicht ohne eine gewisse Menge an Eigenelektronik an den Instrumenten geht.

  2. Die immer geringere Strukturgröße in der Elektronik hat zwei Effekte:

    Für die Speicherung eines Bits stehen dadurch immer weniger Atome zur Verfügung. Das bedeutet, daß sich Rauschen immer stärker bemerkbar macht. (Besonders auffällig bei den immer kleiner werdenden Pixeln in Digitalkammeras.) Strahlung erzeugt aber letzten Endes auch nur eine Art Rauschen, so daß die Strahlungsempfindlichkeit der Elektronik steigt.

    Zum anderen sinkt die Lebensdauer immer mehr. Ein uralter 8-Bit-Heimcomputer kann auch heute noch laufen, vorausgesetzt man hat ihn nicht schon längst weggeschmissen. Ein 15 Jahre alter Pentium (200 MHz) läuft bei mir immer noch. Alle später angeschafften Rechner haben keine 5 Jahre durchgehalten, Tendenz weiter fallend. Für jahrzehntelange Missionen sind diese Geräte also völlig ungeeignet. Für Versorgungsflüge zur ISS würde das gerade noch reichen. Aber schon einfache Sateliten will man ja nicht alle zwei bis drei Jahre durch neue ersetzen. Das verhindern schon die Startkosten.

  3. Von FPGAs weiss ich, dass sie in den Mars Rovern eingebaut wurde: Xilinx Virtex-2 strahlengehärtet. Kann man ich doch ganz gut errinern als ich nach dem Studium zu arbeiten anfing. Da war das ganz gross im X-Cell Magazin (Die Propaganga-Zeitschrift von Xilinx)

    Letztes Jahr war ich an einer FPGA Konvention, bei dem dieses Problem erörtet wurde: Da ging es darum, wie oft ein FPGA ausfhört zu laufen, wenn es von einem Teilchen getroffen wird. Für einen Test wurde ein FPGA Test Board in einem Teilchenbeschleuniger reingetan, und gewählt, wann ein Konfigurationsbit falsch war. Da wurden in Logik implementierte Zähler verglichen, sowie die Checksumme der Konfiguration dauernd kontrolliert. Meistens passiert es, dass die Checksumme falsch war, aber die Schaltung weiter lief, da der entsprechende Bit nicht benutzt wurde. Selten wurde ein aktives Bit getroffen. In beiden Fällen wurde das FPGA dann neuprogrammiert.

    Nach langem Rechnen kamen sie zum Schluss, dass dies auf der Erde während des kompletten Lebensdauer des FPGA so gut wie passieren würde.

  4. Ich sehe nicht so recht, wo das Problem mit der CPU Geschwndigkeit sein soll. Auf Basis eines PowerPC 750 konnte man schon einen recht ordentlichen Server aufbauen. Für die Lagekontrolle und das Verwalten eines Sateliten oder einer Sonde reicht das allemal, da kein GUI oder Windows oder Unix/Linux mitgeschleppt werden muß. Ein schlankes Echtzeitbetriebssystem reicht allemal.

    Komplexe Datenverarbeitungen können auf der Erde mit aktueller PC Hardware erfolgen.

    Ein Problem ist eher das notwendige RAM und Flash um gößere Datenmengen zwischenzuspeichern. Die zugehörigen Controller kann man mit niedrig integrierten und RAD tauglichen FPGAs oder ASICs implemetieren. Das komprimieren der Daten, falls überhaupt gewünscht, kann man auf FPGAs implementieren, falls die CPU nicht schnell genug sein sollte.
    Die großen RAM und Flash Speicher werden vermutlich in ein dickes Gehäuse müssen.
    (d.h. zentrale Datenhaltung)

    Was damit nicht gut geht sind:
    – Computersehen, d.h. komplexe Bilderkennung
    – aufwendige Algorithmen zur Sebststeuerung des Satelliten oder der Sonde.
    – man kann die Software nicht mit einem Toolkit zusammenklicken, sondern muß ganz klassisch embedded Software schreiben. (z.B. in bestimmten Pascal Dialekten, PEARL, ADA, …)

  5. Die Frage ist, wie lange es den RAD-750 noch geben wird. Ältere Prozessoren werden üblicherweise irgendwann nicht mehr hergestellt, die Fabs mit den größeren Strukturbreiten werden geschlossen oder auf kleinere Strukturen umgerüstet.
    Und was die Lebensdauer moderner CPUs angeht: was in aktuellen PCs oder Macs steckt, wird häufig am thermischen Limit betrieben, muss diverse Aufwärm- und Abkühlphasen verkraften und braucht auch (nach Ansicht der Hersteller) nicht mehr jahrzehntelang halten, da PCs häufiger aufgerüstet oder ersetzt werden. Für die Raumfahrt interessanter sind eher aktuelle Embedded-CPUs, die schnell sind, aber ohne aktive Kühlung auskommen. Deren durchschnittliche Lebensdauer ist mir nicht bekannt, dürfte aber deutlich länger sein als z.B. die eines 3.6GHz Quadcores von Intel.

  6. Ich glaube nicht, dass alle Fabs grössere Strukturbreiten geschlossen werden. Die meisten ICs sind keine CPUs oder FPGA oder sonst komplizierte Bauteilen, sondern einfach Dinger wie Spannungswandler, Levelschifter, Kabeltreiber etc. Die Bauteile müssen zum Teil ziemlich viel Leitung (Strom) haben, so dass man sie nicht beliebig klein machen kann.
    Wenn der RAD-750 nicht mehr in Serie ist, dann kann eine Fab auch kleinst Serie produzieren, wird ja für Prototyping benutzt). Zwar kostet ein Chip dann 20000€ aber bei einem Satellit dass eh Million kostet spielt das eh keine Rolle.
    Ich habe früher bei einer Firma gearbeitet die eigene Bildsensoren macht. Mehr als 1000 Sensoren pro Jahr brauchten wir nicht, aber die Fab hat geliefert. Das teuerste waren die MAsken zur Produktion, aber das sind einmal kosten.

    Wenn alle in den Raumfahrt den selben Chip verwenden, könnte man pro Jahr ein paar Wafer machen durchlaufen lassen. Wenn man die Dinger gründlich testet, dann könnte man auch mit einer schwachen Ausbeute auskommen.

  7. Ich glaube auch nicht dass sie Verfügbarkeit das Problem ist, denn in vielen Geräten stecken ja auch noch 8-Bit Prozessoren und die werden garantiert nicht im 28 nm Verfahren hergestellt. Der Aufwand für die hohen Strukturbreiten ist ja auch nicht so hoch, das IMS hat eine „Fab“ die geht in einigen Räumen unter und sie kann immerhin 0,5 µm Technologie, das entspricht dem Pentium Pro.

    Das Problem ist eben, dass die Entwicklung bei diesem Niveau stehen bleibt während sie woanders weitergeht. Und es hat natürlich Auswirkungen. es gibt nun schon Satelliten die liefern Mesßdaten mit 100 Mbit/s. Die in Echtzeit zu verarbeiten reizt den RAD-750 aus. Wenn wir an Raumsonden denken wird noch mehr Intelligenz noch wichtiger. Marsrover würden an Mobilität gewinnen, wenn sie die Umgebung erfassen und den sichersten Kurs selbst bestimmen könnten. Sie könnten auf dem Weg die Umgebung abscannen und bei interessanten (spektral auffälligen) Steinen halten und selbstständig Bodenproben nehmen. So werden sie (wie alle Raumsonden) praktisch vor allem von der erde aus gesteuert.

  8. Hmm … also ich denke da muss es andere Gründe geben warum neuere Technologien nicht Einzug hält …

    Ich arbeite bei einem Arbeitgeber bei dem wir für Automotive Anwendungen SOCs entwickeln die für eine Lebensdauer > 10 Jahre ausgelegt sind. Die sind natürlich nicht radiation hardened, aber das kann man da (größtenteils) immer noch on top haben (verwendete packageing Materialien mit geringerem Anteil an alpha Strahlern etc pp) … wenn man dafür zahlt … diese SOCs basieren auf recht aktuellen ARM cores oder älteren Eigenentwicklungen … die Lebensdauer garantieren wir und weisen sie auch nach, jeder einzelne chip geht zusätzlich durch einen burn in und die Anforderungen an Testabdeckung etc sind auch recht hoch (allerdings noch nicht so hoch wie für Military) … diese Chips sind in Millionenstückzahlen verfügbar und das über die gesamte zeit die sie in die Autoproduktion eingeht, und das sind schnell mal 10 Jahre, wozu wir auch vertraglich gezwungen sind … wir haben auch mehrere Konkurrenten die das selbe machen, an Auswahl mangelt es also nicht … die Konkurrenz produziert auch für Military Anwendungen, falls gewünscht (bei uns gibts da moralische Bedenken) …

    Gleichzeitig sollte es kein Problem sein für eine 5 stellige summe hundert oder zweihundert Samples produziert zu bekommen, zb mit Hilfe von multi project wafern (bei Wunsch auch auf demselben DIE) … und das fast in jeder beliebigen Technologie (vielleicht nur grad nicht in der allerneuesten) … man muss nur bisschen warten bis sich jemand findet der ebenfalls was braucht … in der Analogentwicklung ist es recht gebräuchlich erst mal einen Testchip zu fertigen mit den wichtigsten Strukturen schon mal drauf um das erst mal zu vermessen bevor man den es1 (engineering samples number 1) fertigt (der dann hoffentlich zu cs wird 😉 ) … finanzierbar ist es also …

    Ich denke die Hauptgründe sind eher:

    1) Extrem konservatives Herangehen in der Entwicklung

    Man verwendet einfach das was man schon immer verwendet hat weil man einerseits noch damit auskommt und andererseits niemand die Verantwortung dafür übernehmen will wenn mal was neueres ausfällt … auch bei der Software wird sicherlich gerne reused und nur ungern neue Software qualifiziert … und zur Software gehört auch die Hardwareplattform … wird sicherlich interessant ab wann der erste ARM fliegt 😉 Aber kommen wird das sicher … einfach weil kaum noch einer was anderes entwickelt/herstellt …

    2) Entwicklungskosten

    Eigenentwicklungen für Kleinserien sind eigentlich gang und gäbe für jede Technologie … es gibt viele Anwendungen die nicht anders zu lösen sind (FPGA zu langsam und nicht von der Stange verfügbar) … aber die Entwicklungskosten sind hoch … vor allem wenn der es1 nicht sitzt und allgemein weil die Anforderungen an Verifikation und Qualifikation sehr hoch sind … das erhöht den Aufwand enorm … außerdem ist so ein know how in der Luft- und Raumfahrt Industrie wohl nicht vorhanden und (logischerweise) nicht gewünscht …

    Naja, wir baun in einem oder zwei Jahren eh nur noch fertige Cores ein, dann gleicht auf dem Markt eh ein Produkt dem anderen und nach einer kurzen Marktbereinigung bleibt der lieben Raumfahrtindustrie eh nix anderes übrig als das zu kaufen was jeder andere auch kauft 😉

    HElados

  9. Das ganze hat sicher viele Dimensionen. Die Lösung „wir machen eine eigene Raumfahrt-Kleinserie“ ist es aber mit Sicherheit außer in Nischenbereichen nicht. Man benötigt ja auch die ganze Kette also Betriebssystem, Software (Compiler…) und das ist dann schon erheblich aufwendiger als die Hardware alleine. Ich denke wie in der Vergangenheit wird sich die Raumfahrtindustrie an bestehende Prozessoren anhängen die eben raumfahrttauglich sind. Schon der Vorgänger des RAD-750 war ein PowerPC Chip, das ESA Pendant ERC32 ist ein Sun Sparc Prozessor. Der einzige Prozessor der nicht kommerziell entwickelt wurde und der mir einfällt ist der MIL-STD MA 1750A, der aber dafür massiv im US-Militär in Kampfflugzeugen und Lenkwaffen eingesetzt wurde und so auf hohe Stückzahlen kommt.

    Die Raumfahrtindustrie wird daher auch in Zukunft auf kommerzielle Prozessoren zurückgreifen. Die Frage ist nur wie weit sie Schritt halten will.

  10. Noch eine kleine Nachbemerkung: Neu muss nicht immer besser sein, das merke ich gerade bei meinem aktuellen Projekt. Hier ersetzt für Meßungen eine aktuelle Steuerung des Herstellers (mit Atom Prozessor) ein über 10 Jahre altes dezidierte System für diesen Zweck mit 20 MHz ADSP-DSP Prozessor. Das alte konnte ohne Problem präzise bis zu 1µs messen. Die Steuerung hat Probleme mit Zeiten unter 10 ms – auf ihr laufen eben Hunderte von Tasks und sie ist nicht speziell für diesen Zweck entworfen worden….

  11. > die Lebensdauer garantieren wir und weisen sie auch nach, jeder einzelne chip geht zusätzlich durch einen burn in

    Werden die wirklich 10 Jahre lang getestet, bevor sie eingesetzt werden? Wenn 10 Stück ein Jahr lang laufen, heißt das noch lange nicht daß einer 10 Jahre übersteht. Wenn man die geplante Lebensdauer wirklich nachweisen kann, dann sind die Chips schon längst im Einsatz. Und wenn sie doch nicht so lange durchhalten gibt es Probleme. Bei einem Auto ist das nicht so kritisch, da wird in der nächsten Werkstatt ein neuer eingebaut. Es entstehen also nur zusätzliche Kosten. In der Raumfahrt würde man das erst lange nach dem Start merken, was einen Totalverlust bedeutet.

  12. Man kann Chips beschleunigt testen, in dem man sie erhitzt und mit Spannungen ausserhalb der Spezifikation testet. Dadurch treten Fehler schneller auf.

Schreibe einen Kommentar zu Andreas Buschmann Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.