Die konservativste Branche

Es gibt ja das Gerücht, Weltraumfahrt wäre progressiv. Ich erinnere mich noch an Jochaim Bublath und da fiel in fast jeder Sendung ein Spruch wie „Als Ergebnis der modernen Weltraumforschung“… Das hat man dann bei Switch auch aufgenommen und karikiert.

Nun war die Weltraumfahrt mal sehr innovativ. Von Brennstoffzellen habe ich Jahrzehnte bevor die Automobilindustrie die entdeckt hat gehört – sie wurden kaum dass sie erfunden wurden in den Gemini Raumkapseln eingesetzt. Um die mangelnde Zuverlässigkeit von Computern auszugleichen erfand man das Voting und Redudante Auslegung aller Teile. Der Apollo Rechner war eines der ersten Realzeitsysteme und der erste Microcontroller. Auch später noch waren Entwicklungen in der Weltraumfahrt vor allem im instrumentellen Bereich dem kommerziellen Bereich weit voraus. Als man den CCD-Chip für Galileo auswählte konnte man bei Tausenden von hergestellten Chips nur zwei Exemplare finden, die die Flugqualität erreichten – der Chip hatte fünfmal so viele Pixel wie kommerziell verfügbare Exemplare.

Inzwischen hat man überall einen Gang zurückgeschaltet. Dafür gibt es auch gute Gründe. Bei der Mikroelektronik steigen sowohl die Kosten mit kleiner werdenden Strukturen an wie auch deren Empfindlichkeit. so hinken die Chips für Bordcomputer um Jahre bis Jahrzehnten hinter kommerziellen Exemplaren hinterher. Spitze dürfte derzeit der japanische HR5000S sein, eine MIPS 64K Architektur im 0,15 Mikrometerprozess. In derselben Auflösung entstanden 2001 kommerzielle Chips wie der Pentium 4, wobei die auch noch über eine größere Chipfläche (der HR5000s belegt nur 50 mm²) hatten. So ist selbst die erste Pentium 4 Generation doppelt so schnell wie dieser Chip.

Bei der Antriebstechnik ist am deutlichsten sichtbar, dass man heute einen Gang zurückschaltet. Verglichen mit vor 50 Jahren schaffen heute Antriebe maximal 10% mehr Performance und das oft für deutlich höhere Kosten, weshalb man oft drauf verzichtet das letzte Quäntchen Leistungen herauszuholen.

Noch immer führend sind neuentwickelte Instrumente die Gigapixelkameras bei Kepler und Gaia zeigen doch auch hier wird inzwischen oft recycelt und ein Experiment eingesetzt, das schon vor Jahren schon flog.

Innerhalb der Raumfahrt gibt es aber eine Branche die ist noch um einiges konservativer als der Rest der Branche: die Hersteller von Nachrichtensatelliten. Sonst gilt die ja als Vorzeigebeispiel. Wenige Jahre nach dem ersten Sputnik startete man die ersten geosynchronen Satelliten und die waren gleich so gewinnbringend, das gleich zwei Organisationen INETLSAT und COMSAT gegründet wurden. Europa entwickelte die Ariane, weil die USA ihre Kommunikationssatelliten nicht starten wollte. Allerdings ist dieser Teil der Branche extrem konservativ. Hier nur einige Beispiele:

Lange Zeit setzte man nur auf die Drallstabilisierung. Dabei war der ganze Satellit trommelförmig und rotierte schnell um die eigene Achse. Die Solarzellen befanden sich auf der Zylinderoberfläche. Intelsat wandte sich erst mit der Intelsat V Serie davon ab, und nur weil die immer größeren Zylinder nun nicht mehr in die Nutzlastverkleidung der Atlas Centaur passten. Als dann das Space Shuttle wieder mehr Raum bot, hat man die intelsat VI wieder mit Drallstabilisierung konstruiert. Würde SpaceX für die Branche eine Nutzlastverkleidung bieten, die 100 m² große Zylinderflächen erlaubt (so 7 m Durchmesser, 14 m Höhe), sicher würden sie sofort wieder zurückwechseln …

Lange Zeit nutzten die Satelliten Feststoffantriebe als Apogäumsmotoren, auch das ging bis in die frühen 90-er so. Die haben einen festen Impuls, erfordern also eine hohe Genauigkeit beim Einschuss, binden die Nutzlast an eine Rakete und erlauben nur einen Impuls (kein Problem bei Standard-GTO, aber große Probleme bei sub- oder supersynchronen GTO). Auf lagerfähige Treibstoffe stellte man erst um als man sowieso große Treibstoffmengen für den immer längeren Betrieb /heute bis 15 Jahre) brauchte. Solarzellenausleger, Drallradstabilisierung und Apogäumsmotor mit flüssigen Treibstoffen wurden übrigens mit den deutsch-französischen Symphoniesatelliten eingeführt. Die Entwicklungskosten übernahmen so DFVLR und CNES.

Und dabei ist es bis heute geblieben. Die ganze Branche verbessert ihre Produkte evolutionär und wartet drauf, dass die Regierung neue Entwicklungen finanziert. In den USA hat die NASA sechs ATS Satelliten gebaut. Einige ihrer erprobten Techniken wurden erst Jahrzehnte später breit eingesetzt so Faltantennen mit einer Oberfläche aus einem Metallgitternetz. Dazu kamen die TDRS Satelliten und bis heute entwickelt das Militär neue Kommunikationssatelliten mit neuen Technologien die dann wenn sie funktionieren in kommerziellen Satelliten übernommen werden und in Europa macht das die ESA auch so. Olympus, Artemis, Alphasat bzw. Alphabus seien als Schlagworte mal in den Ring geworfen.

Wo die Branche wäre, wenn sie die Entwicklung selbst finanzieren müsste – man kann nur spekulieren. Immerhin jammert sie schnell, wenn die Konkurrenz doch was neues entwickelt. Als vor ein paar Jahren Hughes einen alten Bus so modifizierte das er ganz ohne chemischen Treibstoff auskommt „All electric“ genannt, jammerte zumindest die europäische Industrie angesichts dieser neuen Konkurrenz und nun fördert die ESA das natürlich auch noch. Dabei sollte man annehmen angesichts der heutigen Situation (Satelliten mit 15 Jahren Lebensdauer bestehen zu 2/3 aus Treibstoff und da dann auch die Tanks viel wiegen macht das Antriebssystem 75% der Startmasse aus) man wenigstens Ionentriebwerke für die Lageregelung einsetzt. Doch das scheiterte zumindest in Europa bei TV-Sat wo man das Zusatzgewicht für zwei RIT-10 nicht unterbringen konnte. So wartet die Branche heute in Europa noch auf das Regierungsvorbild ….

Dabei ist diese Branche hochprofitabel. Kein Satellitenhersteller muss eine Regierung bitten ihr die Entwicklungskosten für eine neue Serie zu finanzieren, wie dies bei den Trägerraketen gang und gäbe ist und gemessen an den Einnahmen über die Transponder die 2012 bei 160% der Abschreibungskosten lagen also 60% Reingewinn (mit straken regionalen Schwankungen in Europa sind es z.B. 220%) ist das noch gar nichts. Man sollte da annehmen das die Käufer der Satelliten eher an Innovation interessiert sind, denn sie machen noch höhere Gewinne, aber auch ihnen scheint wohl Zuverlässigkeit wichtiger zu sein. Verständlich bei 60% Gewinn ist es Wurst wenn die Trägerrakete bei „All-Electric“ Satelliten nur noch die Hälfte kostet, das steigert ihn dann nur von 60 auf 70%, erhöht aber wahrscheinlich in ihren Augen die Wahrscheinlichkeit eines Totalausfalles um ein mehrfaches dessen.

Manchmal habe ich das Gefühl selbst Beamte sind heute innovativer als die Hersteller von Kommunikationssatelliten.

15 thoughts on “Die konservativste Branche

  1. Ich habe mal mit einem Vertreter von Jena Optronik gesprochen, der die Sternensensoren der Firma verkauft. Er fand es sehr unbefriedigend, dass er das größte Geschäft mit den uralten, riesig großen Astro 10 und 15 macht und nicht mit den viel kleineren, sparsameren Modellen. Einziges Argument der TK-Satellitenbetreiber ist die Zuverlässigkeit. Man kennt das Verhalten im Orbit, die elektrischen und mechanischen Eigenschaften sind bekannt, Beschaffung, Handling und Montage sind seit Jahren eingespielt.
    Masse und Power spielen eine untergeordnete Rolle und da gibt es keinen Grund ein funktionierendes System auszutauschen.
    Die Geräte müssen mehr als 15 Jahre (!) zuverlässig im Dauerbetrieb funktionieren. Und das bei den harten Umweltbedingungen. In erster Linie die Strahlung.

    Bei TK-Satelliten geht es nur ums Geld verdienen.
    Wissenschaft machen andere und die sind durchaus innovativer.

  2. Nur mal so als Laie angemerkt zum Thema Drallstabilisierung:

    Die Drallstabilisierung hat meiner Ansicht nach drei große Vorteile:
    1. Man braucht nicht unbedingt eine komplizierte Steuerelektronik.
    2. Durch die Rotation werden die Solarzellen nicht so aufgeheizt wie die, die
    ständig zur Sonne ausgerichtet sind.
    3. Die Solarzellen müssen nicht der Sonne nachgeführt werden.

    Der Nachteil (neben der Größe): Eine möglichst reibungsarme und langlebige Mechanik zur Kompensierung der Rotation für die Ausrichtung der Antennen.

  3. Ein paar Anmerkungen aus dem Nähkästchen zu dem durchaus interessanten Thema:

    1) Es sind nicht die Satellitenhersteller die so verschnarcht und altmodisch sind und nie was neues auf die Satelliten bauen. Es sind auch die Betreiber, die ungern was neues wollen. Grade SES ist hier in der Branche berüchtigt; ein Qualification Review läuft immer sehr unkompliziert ab wenn man bestätigen kann „keine Änderung gegenüber dem Vorgängermodell“. Wenn man nicht unbedingt was ändern muß, wird da auch nichts geändert.

    2) Zum Spinstabilisierten Satelliten: Das ist bei der Komplexität der heutigen Geo Satelliten nicht möglich. Alleine die für die notwendige elektrische Leistung erforderliche Solarzellenfläche würde man auf keinem transportablen Satelliten unterbringen. Desweiteren reicht ein Blick auf die Anzahl Antennen (und Reflektoren) um die Schwierigkeiten zu erkennen, die bei einem Spinner auftreten würden.

    3) So arg heiß werden die Solarzellen in unserem GEO Orbit auch nicht daß das ein Problem wäre.

    4) Die Nachführung der Solarpanel per SADM (Solar Array Drive Mechanism) ist unkompliziert und bewährt

    5) Auch einen spinstabilsierten GeoSat muß man regeln, sonst laufen sie einem langsam aus der Bahn.

    Zum Geschäftsmodell der Telekom Sats: Die wirklich große Kohle machen die Betreiber, die Satellitenbauer verdienen „normal“, und die Launcher sind die Hungerleider. Richtig reich mit Satellitenstarts ist bis dato noch kaum einer geworden.

  4. Naja die Computerbranche ist entgegen dem öffentlichen Ruf auch nicht viel besser. Wir verwenden C, eine Programmiersprache von 1970 auf Betriebssystemen deren Ursprung auch in dieser Zeit liegt (Unix 1970, Windows NT ca. 1990) auf Prozessorarchitekturen aus den 70ern (x86) bzw. 80ern (ARM) usw..

  5. @Manuel:
    Naja, aber Programmiersprachen werden immer weiter entwickelt. Man muss nur mal aktuelle Standards mit alten Standards (so es sie gab) vergleichen. Bei den Prozessorarchitekturen das gleiche: die wurden auch immer weiter entwickelt. Oder wieviele sind da seit den 80ern ganz neu erschienen? – Ich glaube, das waren nicht sehr viele. Und bei den Betriebssystemen auch: Ich glaube, ein Unix aus den 70ern wird auf einem Rechner von heute eher schlecht laufen, wenn überhaupt.

  6. @Hans: sicher wird das Zeug weiterentwickelt und es gibt auch immer wieder Neues aber das setzt sich meistens nicht durch.
    Ok von C gab es immer mal wieder neue Standards, es gab irgendwann mal C aber im Prinzip ist C 11 oder C99 immer noch ungefähr das Gleiche.
    Es wurden zig neue Programmiersprachen entwickelt, auch einige Sprachkonzepte (Objektorientierung, Funktionale Programmierung, …), davon hat sich zumindest OO so mehr oder weniger durchgesetzt auch wenn Smalltalk von Mitte der 70er objektorientierter war als C 11 oder Java 7.
    Neue Konzepte überhaupt zu programmieren (Programming by Example, Grafische Programmierung, Natürlichsprachliche Programmierung …) wurden größtenteils komplett ignoriert.
    Bei den Betriebsystemen sieht es ähnlich aus. Linux ist ein besseres Unix, Mac OSX ebenso und Windows hat zumindest ähnliche Konzepte. Neuere Entwicklungen wie Microkernel, persistente Systeme, Multikernel, etc. gibt es lediglich in Nischen (auch wenn Co-Prozessoren in Handys möglicherweise auch eher unsichtbar als Nische ist) oder als Forschungsprojekte.
    Und das es keine neuen Prozessorarchitekturen gab ist auch nicht ganz richtig, Alpha, PPC oder Itanium wären da mal als prominentere Beispiele zu nennen. Und über die Widrigkeiten von x86 zu reden spare ich mir jetzt mal.

  7. @Manuel:
    Stimmt, es gibt viele Dinge, die sich nicht durchsetzten, warum auch immer. – Oftmals steckten irgendwelche wirtschaftlichen Gründe dahinter, gepaart mit einem haufen Faulheit auf Seiten der potentiellen Nutzer.
    Funktionale Programmierung wurde AFAIK auch schon in den 60ern entwickelt und wird heute meisst irgendwo im Umfeld der KI benutzt. Zum Stichwort „Grafische Programmierung“ müsstest Du jetzt mal genauer erläutern, was Du da meinst. So Sachen wie LabView oder ein Teil der Siemens Software zur Programmierung ihrer SPS-Anlagen (S5/S7) nutzen doch grafische programmierung.
    Bei den Betriebssystemen vermute ich mal, das sich diese Konzepte früher oder später zumindest Teilweise in den jetzt gängigen wiederfinden werden. Zwar nicht in Reinform, aber irgendwie passend gemacht. – Ob das immer ’ne gute Idee ist, darf sicherlich bezweifelt werden, soll hier aber nicht weiter interessieren. Meiner Ansicht nach hat ein Betriebssystem sowieso vollständig in einem ROM zu residieren und nur RAM-Speicher für die eigenen Variablen und Verwaltugsstrukturen zu belegen. Das Selbe gilt für Treiber von sämtlicher Hardware: Die haben ebenfalls in einem ROM auf der Steckkarte zu sitzen, welches beim Systemstart ins BS eingebnden wird. Aber das ist eher ’ne Philosophiefrage, als ’ne Technikfrage.
    Es gab nach den Heimcomputern übrigens mal einen Rechner, bei dem das Konzept ebenfalls umgesetzt war: Der RISC-PC der britischen Firma Acorn. Den hab ich auf ’ner Messe mal in Action gesehen, da hat der die seiner Zeit gängigen PCs locker in die Tasche gesteckt. Leider hat er sich nicht weit verbreitet und der Hersteller ging mehr oder weniger Pleite. Was davon noch übrig ist, ist die Prozessorschmiede ARM, die rechtzeitig ausgegliedert wurde.

  8. Nun Vergleiche hinken immer etwas. Aber es ist in beiden Branchen so, das es so riesige Neuerungen in den letzten Jahrzehnteen nicht gab. Nur mal zur Erinnerung, die ersten elektrischen Triebwerke wurden 1964 getestet. Auch bei der Informatik sind die grundsätzlichen Konzepte sowohl bei der Hardware wie auch Software einige Jahrzehnte alt.

  9. @Elendsoft:
    Da könntest Du recht haben. – Aber ich meine ja auch keine Bananensoftware, sondern sauber entwickelte Systeme, die nicht in kürzester Zeit geschrieben und auf den Markt geschmissen werden, so dass die erste Release Version eigentlich immer noch ’ne Beta-Version ist.

    @Bernd:
    Die grundsätzlichen Konzepte„… – stimmt, das ist eigentlich die Diskussion, die wir hier führen.

  10. @Hans und Elendsoft
    Betriebssystem im ROM gibt es ja nach wie vor und zwar überall da, wo ein System entwickelt und dann weitgehend unveränderlich lange eingesetzt wird. Das meist bei der eingebetteten Elektronik der Fall in Steuerungen von der Waschmaschine bis zum Atomkraftwerk.

    Seit es Internet gibt muss jedes Gerät das daran angeschlossen ist den neuesten Trends folgen. Windows 95 kam ohne große Updates aus, doch das ist lange her. Das Betriebssystem muss neue Dienste unterstützen, Anwendungsprogramme müssen aktualisiert oder neu aufgespielt werden etc. In Zeiten wo Leute ihr teures Smartphone nach 1-2 Jahren durch ein neues ersetzen ist diese Vision eine Illusion. Und es gibt immer mehr der Geräte inzwischen sind ja Fernseher und Autos ans Internet angeschlossen.

    Für die Hersteller hat dies aber auch einen anderen Vorteil: sie müssen nicht so viel testen und prüfen. Wird eine Lücke oder ein Fehler gefunden so kann man ihn einfach mit Updates ausbügeeln.

    Es gibt aber die Vorgehensweise die Hans skizziert noch. Bei meinem wichtigsten Kunden wird eine Version als Beta fertiggestellt, dann vom Kunden intensiv getestet, ich bekomme eine Liste mit Fehlern, Designänderungen und Verbesserungswünschen, setze das um, es wird erneut getestet, dann nur noch gefundene Fehler korrigiert (das sind dann nur noch wenige) und dann ist sie fertig. Danach darf nichts mehr gemacht werden, die Versionsinformationen, Dateigrößen und Datum aller Exes wird in die Dokumentation eingetragen und so würde eine Veränderung auffallen.

    Diese Vorgehensweise ist allerdings sehr zeitintensiv. Für die erste Version brauche ich weniger als die Hälfte der Gesamtzeit, Wir haben so z.B. beschlossen die 1.4 Version, die nach der 1.3 gekommen wäre gar nicht erst zu zertifizieren sondern gleich zur 2.0 überzugehen.

  11. @Bernd:
    Auf die eingebetteten Systeme bin ich auch schon gekommen, zumal ich mich damit auch gerade beschäftige, also mit Beschaltung und Programmierung von Microcontrollern. Bei der Waschmaschienensteuerung stimme ich deshalb noch zu, beim Atomkraftwerk nicht mehr. Da sind auch keine eingebetteten Systeme mehr im Einsatz, sondern da kommen SCADA (Supervisory Control and Data Acquisition)-Anlagen zum Einsatz. Also irgendwas, bei dem Steuerung/Regelung und weitere Überwachung in ein grösseres System eingebunden sind.

    > Seit es Internet gibt muss jedes Gerät das daran angeschlossen
    > ist den neuesten Trends folgen.

    Das ist so eine Marotte unserer Zeit, die ich allerdings für grossen Unsinn halte. Es muss nicht immer alles den neusten Trends folgen denn es kann ja sein, dass sich ein Trend auch mal als Irrtum erweist. (Dann ist es meisst besonders schwer, die aus dem Irrtum folgenden Fehler zu korrigieren.) Deshalb meine ich, dass überhaupt nicht jedes Gerät ans Internet angeschlossen werden muss. Im Gegenteil: Sicherheitskritische Anwendungen, gerade auch solche, die für die Infrastruktur zuständig sind, haben am Internet nichts verloren! Wenn damit erhöhte Kosten bei Wartung, Instandhaltung, etc. verbunden sind, dann ist das eben so. Da sollte man sich als Verbraucher (und als Gesellschaft) dann auch mal Gedanken drüber machen, was einem wichtiger ist: eine lückenlose Verorgung, deren funktionieren auch bei Problemen so weit wie möglich sicher gestellt ist, oder lückenhafte Systeme, die jeder mit ein bischen Ahnung manipulieren kann? – Ich bin für die erste Variante.
    Und wenn man für irgendwelche Anlagen eine Fernwartung einführt, (was ja derzeit ein Trend ist) dann sollte man dafür ein geschlossenes Netzwerk aufbauen, in das nicht jeder unbefugte eindringen kann. Das ist zwar wieder teurer, aber das sollte es uns Wert sein.

    Aus dem selben Grund halte ich auch nichts von der Praxis, ein Smartphone alle 2 Jahre zu ersetzen, wie ich eingentlich sowieso nicht so viel von diesen Tabletcomputern halte, die behaupten sie wären ein Telefon.

    Das diese ganze Vorgehensweise natürlich viel mehr Zeit benötigt und damit auch höhere Kosten nach sich zieht, ist mir auch klar. Deshalb wird sie ja auch nur dort eingesetzt, wo es entweder ein Kunde explizit wünscht oder wo eine nachträgliche Fehlerkorrektur noch teurer wäre. Ich bin aber trotzdem dafür, sie überall einzusetzen, weil das auch einen Beitrag zur Entschleunigung des Lebens leistet.

  12. kleinere embedded Systeme booten z.T. aus einem Flash, und kopieren dann den gesamten Code ins RAM. Das Flash braucht dann nur über einen I²C Bus angeschlossen werden.
    Das macht man nur, wenn das Flash ein eigener Chip ist, on Chip Flash oder ROM kann auch breiter angebunden sein.

  13. Revolution statt Evolution. Für Satellitenbetreiber gilt ganz einfach: Ein herkömmliches Konzept, das auf 15 Jahre Lebenszeit ausgelegt ist und dann in der Praxis sogar 25 Jahre hält, ist am Ende effizienter als ein modernes Konzept, das zum selben Startgewicht (und Startkosten) 20% mehr Transponderkapazität bietet, aber vom Satellit her auch 20% mehr kostet und am Ende nur 12 statt 15 Jahren hält.

    Aber ab und zu passieren dann die großen Sprünge. Aktuell steht einer davon in der Startliste von SpaceX: Die nächste Falcon 9 soll gleich ZWEI „große“ Tk-Satelliten auf einmal wuppen. Aber nicht in den GTO – da wäre ihr schon einer der beiden zu schwer – sondern in den LEO oder irgendwas zwischen LEO und GTO, halt bis (fast) Brennschluss der Falcon 9. Von da aus geht es dann mit elektrischen Antrieben weiter, die die Satelliten selber mitbringen.

    Leider findet man sonst wenige Daten zu den Satelliten im Web. Wenn aber auf diesem Weg die Startkosten pro Transponder geviertelt werden (statt eines „kleinen“ fliegen zwei „große“ Satelliten auf einer Falcon 9) kann ich mir vorstellen, dass die Branche insgesamt experimentierfreudiger wird.

  14. @Kai, die beiden Satelliten sind Boeing 702SP; es gibt nicht so wahnsinnig viel Detailinformation über den „neuen“ kleineren Bus; angeblich beträgt die Startmasse eines Satelliten 4000 lbs (ca. 1,8 metrische Tonnen). Dadurch daß sie direkt aufeinander sitzen kommt man auf eine Gesamtmasse die insgesamt eher im Bereich eines „kleinen“ herkömmlichen GEO ist.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.