Upgrades wenn er noch fliegen würde
Wie bekannt, wurde vor rund 10 Jahren beschlossen die Space Shuttles auszumustern. Damals lief gerade ein Upgradeprogramm, schließlich sollten die Fähren die Station versorgen und die höhere Inklination und die höhere Umlaufbahn kosteten schon 6 bis 8 t Nutzlast je nach Bahnhöhe. Der wichtigste Punkt für die Steigerung der Performance war ein Upgrade der Feststoffbooster von 4 auf 5 Segmente, also die Größe die nun bei der SLS verwendet wird.
Was das Shuttle Programm ausmacht, ist das die Fähren kaum in der Nutzlast gesteigert wurden. Die Änderungen gab es vor allem im Bezug auf Sicherheit und Wartungsfreundlichkeit. Dabei gab es schon Fortschritte, so wurde der Hitzeschutzschild leichter, aber die einzige gezielte Änderung zur Steigerung der Performance war die Senkung der Leermasse des Tanks. Auch beim weiteren Ausbauprogramm standen diese Aspekte im Vordergrund, so war geplant bei den Triebwerken auf Leistung zu verzichten um dafür Sicherheit zu gewinnen und die Fertigung zu verbilligen.
Ich will im Folgenden einige Möglichkeiten die Nutzlast zu steigern aufführen. Keine dieser wurde umgesetzt oder war offizielles Programm.
Tank: Die NASA hat beim Shuttle Lightweight Tank im Wasserstofftank die leichtere Legierung 2195 eingeführt. Da der Tank die Hälfte der Masse ausmacht hat man es dabei belassen. Würde man sie auch bei der Zwischentanksektion und dem LOX-Tank einsetzen so wäre der Tank um 1455 kg leichter. Heute arbeitet Boeing an einem kryogenen Tank, der 30% billiger und 20 % leichter ist und aus CFK-Werkstoffen besteht. Offen ist ob der auch für LH2 eingesetzt werden kann. Doch würde man nur Zwischentanksektion und LOX-Tank ersetzen, so gäbe das weitere 1720 kg. Wenn man CFK-Werkstoffe auf die Zwischentanksektion beschränkt (das ist in jedem Falle möglich) so sind es 900 kg mehr Nutzlast.
OMS: Die Triebwerke im Heck des Shuttles sind druckgefördert. Das hat Tradition. Aus Sicherheitsgründen wurde schon bei Apollo ein druckgefördertes Triebwerk eingesetzt und es ist auch eines für die Orion aka MPCV geplant. Da es zwei Triebwerke gibt, ist meiner Ansicht nach auch so genügend Absicherung vorhanden. Ein Triebwerk mit einer Turbopumpe hat einen höheren spezifischen Impuls, vor allem aber können die Tanks viel dünnwandiger gefertigt werden. Das spart Gewicht ein. Man kann ein druckgefördertes Triebwerk nachträglich mit einer Turbopumpe ausstatten, so vorgeschlagen beim Aestus. Der spezifische Impuls steigt beim Aestus von 3178 m/s auf 3335 m/s, der Schub von 28,7 auf 55,5 kN. Während das Gewicht nur um 27 kg höher ist. Russland setzt seit langem auf Triebwerke mit Turbopumpen auch bei bemannten Raumfahrzeugen. Für die Buran war z.B. eine Variante des RD-58 des Block D eingesetzt.
Bei den OMS-Systemen können so rund 400 kg für Tanks und Heliumflaschen eingespart werden, weitere 500 kg beim Treibstoff durch den höheren spezifischen Impuls. In der Summe bringt dies 900 kg mehr Nutzlast.
Stromversorgung: Nicht so wichtig bei ISS-Missionen wo die Shuttles von der Station mit Strom versorgt werden, aber falls es mal Solomissionen geben würde, dann ist es von Vorteil wenn man eine andere Stromversorgung hat. Die Shuttles nutzen dazu Brennstoffzellen die aus Wasserstoff und Sauerstoff Wasser erzeugen und dabei Strom gewinnen. Brennstoffzellen wurden schon bei Apollo eingesetzt. Als man das Shuttle entwarf erschien es ausgeschlossen so leichte und leistungsfähige Solarzellen zu bauen um den Shuttle mit Energie zu versorgen. Das Nebenprodukt Wasser kann getrunken werden, doch es wird viel mehr generiert als benötigt. Das Minimalsystem wiegt 2037 kg und liefert 1794 kWh. Das reicht für eine Mission von viereinhalb Tagen aus, also z.B. für ISS-Missionen. Bei einer 30 Tagesmission sind es schon 15,6 t beim Start, mehr als die Hälfte der Gesamtnutzlast.
Würde man in den Türen des Nutzlastraums mit zwei 2,3 x 18 m langen Solarpaneelen versehen die man nach dem Start zur Seite ausklappt (damit die Radiatorenfläche drei bleibt) so kann man das Shuittle damit mit Strom versorgen.Jedes Paneel mit konservativen 25% Wirkungsgrad so liefert das System 28 kW an Leistung, genug um 14 kW (nomineller Verbrauch des Orbiters) und 14 KW Aufladestrom für Batterien (Betrieb auf der Nachtseite) zu liefern. Legt man diese auf die Reservekapazität der Brennstoffzellen von 240 KWh aus, so wiegen diese bei einer angegebenen Maximalladung von 190 Ah/kg und 3,6 V 350 kg. Solarzellen, wenn man das Flächengewicht des Solargenerators von Dawn zugrunde legt, weitere 330 kg. Zusammen sind das 680 kg. Das spart selbst bei ISS Missionen 1.450 kg ein. Für Langzeitmissionen wird die Einsparung noch größer. Eine 14 Tagesmission spart z.B. weitere 6,1 t an Gewicht ein. Das Lilthiumionenakkus heute hohe Stromstärken generieren spart auch die mit Hydrazin angetriebene Hilfspumpe an, die bei Start und Landung Strom liefert (bis zu 100 kw). Das war als das Shuttle konzipiert wurde, mit Batterien nicht möglich und wenn wären sie zu schwer gewesen. Heute trieben Batterien schon die Motoren an die die Düsen von Feststoffboostern gegen den Innendruck schwenken. Die drei APU als Hilfsaggregate wiegen 582 kg und haben eine Gesamtleistung von 1300 KWh. Benötigt wird ein Drittel, der Rest ist Redundanz. Zudem muss die Kapazität für Start und Landung ausgelegt werden, da sie anders als die Batterien nicht regenerierbar sind. Berücksichtigt man dies, so würden Batterien mit 216 kWH Kapazität für die Landung oder Start ausreichen, das entspricht in etwa der Reservekapazität. Addiert man dieses Gewicht zur Reservekapazität so spart man weitere 260 kg ein, wenn man die Reservekapazität nutzt sogar 582 kg.
Borcomputer. Der hohe Stromverbrauch resultiert auch aus der Auslegung des Orbiters in den Siebziger Jahre. Jeder Rechner verbraucht z.B. 600 W an Leistung. Das sind bei vier gleichzeitig aktiven (der fünfte ist ein Reserverechner) 2,4 kW. Die NASA untersuchte ein Ersetzen des Rechners durch FPGA gekoppelt mit einem RAM und Flashspeicher. Wenn man 100 Watt für ein solches System ansetzt, so spart dies 2 KW Dauerleistung oder ein Siebtel der Gesamtleistung ein. Ähnliches tat man schon beim Ersetzen der Röhrenmonitore durch LCD-Displays, Würde man das Gesamtsystem durchgehen so gäbe es sicher noch mehr Einsparmöglichkeiten so bei Beleuchtung etc. Die Rechner selbst wollte man nicht durch neue Prozessoren ersetzen, da die Shuttle Software über Jahrzehnte entwickelt und optimiert wurde und insgesamt einen dreistelligen Millionenbetrag kostete. Heute kann aber ein FPGA die Prozessoren simulieren und so kommt man um ein Neuschreiben der Software herum.
Ich habe die neuen Rechner beim Stromverbrauch nicht berücksichtigt. Doch trotzdem kommt man zu deutlichen Einsparungen: (Minimalversion)
1.455 kg durch leichteren Tank aus Legierung 2195
+ 900 kg durch CFK-Werstkoffe in der Zwischentanksektion
+ 900 kg durch OMS mit Turbopumpe
+ 1450 kg durch Solarzellen zur Stromversorgung bei einer Kurzzeitmission
+ 260 kg eingesparte APU
= 4965 kg mehr Nutzlast
Das nette ist, das dadurch der Orbiter leichter wird. Das bedeutet die knapp 5 t mehr Nutzlast spiegeln sich so auch in fast derselben Nutzlast (rund +4,5 t) für den ISS-Orbit wieder wo die Steigerung noch deutlicher ist (rund ein Viertel der ISS-Nutzlast).
Noch deutlicher ist es wenn man eine Langzeitmission von 21 Tagen ansetzt (die längste Shuttelmission) und die anderen Einsparungen hinzunimmt:
+ 820 kg CFK-Werkstoffe beim LOX-Tank
+ 322 kg Reservekapazität für APU genutzt
+ 7944 kg für Brennstoffzellen (Wasser für Besatzung abgezogen)
= 9086 kg
Das bringt eine deutliche Nutzlaststeigerung für Spacelabmissionen bzw. man könnte diese auf 30 Tage, die maximale Betriebszeit des Orbiters am Stück ausdehnen und so mehr Ergebnisse gewinnen. Das HST würde davon profitieren, dass die 4,59 t Treibstoff ermöglichen würden es von 611 auf 761 km Bahnhöhe anzuheben und noch Reserven lässt um das Shuttle zu landen. In dieser Höhe gibt es weniger Einflüsse durch die Erdatmosphäre, die IR-strahlung der Erde ist geringer (einfachere Kühlung) und durch die abnehmende Größe ist auch das Beobachten leichter, weil ein kleinere Teil des Himmels von der Erde bedeckt wird. Zudem wäre die Lebensdauer viel länger. Zugegeben ist das unwahrscheinlich, genauso wie die Kurzzeitmissionen, da das Shuttle ja nach Planungen danach nur die ISS versorgen würde. Alleine vier Besatzungswechsel für die ISS würden die Fähren schon gut auslasten. Doch mit vier Fähren wären etwa 6-8 Missionen pro Jahr möglich also auch noch Kurzzeitmissionen die auch bei der ISS Sinn machen, da man bei ihnen viel schneller Experimente austauschen kann und Ergebnisse bekommt. Wenn man die Startrampe in Vandenberg die ja schon gebaut wurde auch nutzen würde, wären auch an Erdbeobachtungsmissionen denkbar die viel mehr Sensoren und diese gleichzeitig einsetzen würden.
Für solche Missionen wäre dann allerdings die Ausrichtung des Nutzlastraums auf die Sonne hinderlich. Sofern man nur bei Nacht beobachtet, z.B. mit Radar oder IR-Sensoren ist das keien Einschränkung. Genauso für Astronomiemissionen. Mit der höheren Nutzlast und einer optimierten Oberstufe mit lagerfähigen Treibstoffen und Turbopumpenförderung (angelehnt an die Leistungsdaten einer EPS) würde ein Shuttle z.B. 7,6 t in den GEO transportieren. Das ist die Nutzlast einer Delta 4H, die auch gleich viel beim Start kostet. Damit hätte man diese Linie einstellen können und mit mehr Stückzahlen wäre die Atlas V dann auch preiswerter geworden. Derartige Oberstufen waren mal angedacht, wurden aber nicht mehr umgesetzt, nachdem man beschloss alle Satellitenstarts nur noch mit Trägerraketen durchzuführen.
Am meisten hätte natürlich das SRM-Upgrade gebracht. Mit 9,1 t zur ISS wäre die Nutzlaststeigerung viel größer gewesen als die aller kleinen Maßnahmen zusammen. Daher war es auch anders die obigen Maßnahmen vorgesehen.
Bernd, wie willst Du die Solarpanels stets zur Sonne ausrichten wenn sie in den Klappen das Ladebucht montiert sind? Ohne Ausrichtung liefern sie einen Bruchteil der Leistung (der Cosinus schlägt hier zu); einen Ausleger mit Drehmechanismus (SADM) wird man da schlecht unterbringen.
Das ist zwar grundsätzlich richtig, aber es gibt auch Situationen, wo eine CPU schneller ist, wenn man sie direkt in Silizium aufbaut, anstatt sie auf einem FPGA zu simulieren. Es wäre also die Frage zu klären, inwieweit man die alten Prozessoren simulieren kann und welche Vorteile man sonst noch davon hat. Oder anders:
Es wäre also die Frage, was bei dieser Untersuchung heraus kam? – Und jenachdem, wie alt sie ist, inwieweit sich die Ergebnisse auf aktuelle FPGAs übertragen lassen?
Nebenbei:
Quelle: Wikipediaartikel über FPGAs; hervorhebung durch mich.
Ja Ja Wikipedia. Ich schau bei der NASA nach, das ist bei mir die Primärquelle:
http://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/20070019291.pdf
Als FPGA-Experte muss ich jetzt mein Senf dazugeben: In diesem geht es die Shuttle CPU durch einen FPGA zu ersetzen, damit man den genau gleichen Code laufen lassen kann. Da die CPU schon älter ist, wird man sie ohne Probleme in den FPGA reintun.
Einen FPGA nur als CPU zu verwenden ist sinnlos, wenn man die entsprechende CPU als Chip kaufen kann.
Selber haben wir noch nie einen Softcore in einem FPGA verwendet, das ist in unserer Anwendung total ineffizient. Es gibt ja heute ARM Chips, die haben einen FPGA angehängt. Im vergleich zu den Chips aus den 2000er Jahren sind es CPUs mit FPGA, und nicht FPGA mit CPUs. Die CPUs ist komplett vom FPGA unabhängig, man braucht keine FPGA Ressourcen, um die CPU zum laufen zu kriegen, was das Problem der früheren Versionen war.
Die FPGA-Hersteller verkaufen natürlich immer mehr Systeme, bei denen man mit ein paar Klicks sich ein SoC auf einem FPGA zusammen stellen kann. Ich habe das Gefühl, das an Software Entwickler gezielt, die keine Ahnung von HDL und Timing haben. Wenn man nur Java kennt, ist es schwierig, wenn man sich plötzlich auf absoluten tiefen Code zu programmieren.
@Bernd: Nun, ich habe zuvor auch das entsprechende Kapitel zu FPGAs noch mal im Tietze/Schenk nachgelesen, nur steht da nicht viel drin, was in diesem speziellen Zusammenhang nützlich ist. Und da ich nur selten etwas bei der NASA direkt suche, weis ich auch nicht, wo ich da mit der Suche anfangen muss, um das zu finden, was ich suche. Und nein, Google und Konsorten helfen mir da oftmals auch nicht weiter.
@Thierry Gschwind: Danke für die Infos, damit sind meine rudimentären Informationen über FPGAs wieder ein Stück erweitert. Das es sinnlos ist, einen FPGA als CPU zu verwenden, wenn man die entsprechende CPU als Chip kaufen kann, sehe ich auch so. Ich hab da blos gerade auch ein Problem der Einordnung, da es einige Lehrbücher zum CPU-Design gibt, die ihre Beispiel-CPUs auf FPGAs entwerfen. – Bzw. das Modell der CPU wird in VHDL oder Verilog entworfen und anschliessend auf FPGAs umgesetzt. Und ich hab (noch) keine Ahnung, an welcher Stelle innerhalb des Entwurfs entsprechende Unterscheidungen zu treffen sind, die dafür sorgen, das ein solches Modell auf einen Wafer gebracht oder in einen FPGA geschrieben wird.
Und von CPUs mit angehängtem FPGA hab ich bisher noch nichts gehört (oder gelesen). Klingt aber logisch für Systems on a Chip, wenn man keinen passenden Mikrocontroller findet oder keine MCUs verwenden will, warum auch immer.
@Hans
Als Übung eine CPU in einem FPGA zu schreiben, ist nichts besonders. Aber eben es ist eine Übung in einem Lehrbuch.
CPUs mit FPGA werden zum von Xilinx verkauft. Das sind die Zynq Serien:
http://www.xilinx.com/products/silicon-devices/soc.html
Das sind aber kleine Mikrocontroller und so, sondern krasse ARM Prozessoren mit GPU und Video Codecs.
Wie Thierry schrieb egeht es nicht um den Sinn von FPGA an sich. Es geht darum pro Shuttle 5 Computer, dazu kommen noch einige Reserveexemplare, insgesamt sicher unter 100 Stück, die seit 25 Jahren nicht mehr gebaut werden zu ersetzen.
Die AP101 hatten in der ersten Version eine Geschwindigkeit von 0,48 MIPS. Der MC68000 und 80286 haben etwa 1 MIPS und zwischen 68000 und 134000 Transistoren. Wenn heute ein FPGA einen kompletten Amiga mit allen Zusatzbausteinen emulieren kann dann wird es sicher kein Problem sein nur die AP101 CPU zu emulieren.
FPGA sind für die Anforderungen der Raumfahrt (kleine Stückzahlen, hohe Anforderungen an Strahlungsresistenz, oft spezielle Anwendungen) eine praktikable Lösung. Auch eingesetzte Mikrorprozessoren hinken Jahrzehnte hinter den aktuellen Exemplaren hinterher und FPGA können die rechenintensiven Arbeiten wie Datenverarbeitung und Kompression von Meßdaten (immer derselbe Algorithmus) als „Algorithmus in hardware“ stark beschleunigen.
@Hans:
Es gibt da nicht nur FPGAs sondern ein Kontinuum an Möglichkeiten:
1) FPGAs (SRAM basierend, mehrfach programmierbar)
2) FPGA ähnlich, einmal programmierbar (OTP) (fuse bzw. antifuse)
3) maskenprogrammierbare Chips
4) in einer logischen Synthetisierungssprache designte Chips (Verilog oder VHDL)
5) in generischem VLSI designte Chips
6) in Prozesss spezifischem VLSI designte Chips
In dieser Reihenfolge wird auch der Aufwand (und die Kosten) zum Designen eines Chips immer höher.
In dieser Reihenfolge steigt die Integrationsdichte (es passt mehr auf einen Chip).
In dieser Reihenfolge steigt die mögliche Geschwindigkeit.
1-4 können aus Verilog oder VHDL generiert werden; von der Idee her aus dem selben Programm, aber man muß jeweils die Anbindung an die Pins, die Clock und das on-Chip RAM anpassen.
Für 100 Stück nimmt man 1) oder 2). 3) nur wenn man 2) nicht Weltraumfest bekommt.
Bei 2) geschieht die Programmierung in der Regel nach dem Auflöten auf die Platine; diese hat dazu in der Regel ein paar zusätzliche Kontakte für die Nadeln des Programmiergerätes.
Bei 3) muß mindestens eine zusätzliche Maske angefertigt werden, und der Chip wird während der Herstellung programmiert. (Lange bevor der Waver zerschnitten wird.)