Der Shuttle-C

Vor der Challenger Katastrophe hatte die NASA noch hochtrabende Pläne für das Shuttle System. Die Centaur Oberstufe sollte die Nutzlast in den geostationären Orbit gegenüber der IUS verdoppeln. Andere Stufen mit lagerfähigen Treibstoffen für größere Nutzlasten, die weniger Platz im Nutzlastraum brauchten waren angedacht. Das wichtigste Projekt war jedoch der Shuttle-Carrier oder Shuttle-c.

Das Shuttle-c ist nicht ein System, vielmehr eine Idee von verschiedenen Schwerlasttransportern auf Basis der Space Shuttle Komponenten. Das größte System bestand aus 4 Feststoffboostern, einem verlängerten Tanks und 4 Triebwerken. Anstatt einem Space Shuttle hätte dieses System nur eine Nutzlastbucht transportiert. Nur die Booster wären wiederverwendbar gewesen.

Das kleinste System war ein umgebauter Space Shuttle. Triebfeder für diese Projekte war nicht der Bedarf bei einem solchen System, sondern das SDI Programm. Wenn dieses in die Realisierungsphase gehen würde, hätte man hunderte von schweren Nutzlasten in den Orbit transportieren müssen. Die NASA offerierte dafür das Space Shuttle, während die Air Force lieber eine eigene, konventionelle, Schwelastrakete entwickeln wollte.

Continue reading „Der Shuttle-C“

Politik und Medien

Am Sonntag sah ich in "Zapp" einen Bericht, nach dem immer weniger Leute Nachrichten schauen. Insbesondere bei den jüngeren Zuschauern ist der Schwund auffällig. ARD und ZDF haben damit am meisten zu kämpfen. Das Durchschnittsalter der Zuschauer der "Tagesschau" ist 60 Jahre, das bei "Heute" sogar 66 Jahre!

Wer meint die Privaten macht es besser: RTL Aktuell liegt bei einem Durchschnitt von 53 Jahren. Alle Nachrichten verlieren Zuschauer. Continue reading „Politik und Medien“

Shuttle Verbesserungen und Versäumnisse

Beim Stöbern im Netz wie oft wohl die SSME eingesetzt wurden bin ich über die Info gestoßen das die Block II AHMS Triebwerke nun doch noch eingesetzt werden, bzw. schon ihren ersten Flug hinter sich haben.

Die Space Shuttle Triebwerke sind die Teile die am häufigsten verändert wurden. Ursprünglich waren 3 Phasen gedacht bei denen man nach und nach den Schub steigern wollte auf 109 % und damit die Nutzlast wieder anheben, da die Space Shuttles zu schwer waren. Nach Challenger wurde dieser plan modifiziert und es ging nun weniger um die Erhöhung des Schubs (das 109 % Ziel wurde z.B. gestrichen) sondern vielmehr um die Erhöhung der Sicherheit. Das letzte Ziel war die Einführung eines Systems aus Sensoren und Computern an den Triebwerken, die die Funktion überwachen und eine gravierende Fehlfunktion etwa 1 Sekunde vorher erkennen – genug Zeit um das Triebwerk abzuschalten.

Ichdachte eigentlich dass man dies auslassen würde, nachdem dieser Schritt eigentlich gedacht wurde um die Space Shuttle noch ein weiteres Jahrzehnt betreiben zu können und sie ja nun bald ausgemustert werden. Doch es wurden 4 der 5 ursprünglich bestellten Triebwerke geordert.

Dies ist nur eine der Verbesserungen des Space Shuttles in den letzten 20 Jahren. Der Hitzeschutzschild wurde erneuert und durch einen leichteren ersetzt, die Computer wurden ersetzt und die Displays durch moderne TFT ersetzt, und der Tank wurde durch den leichtgewichtigen und später durch den super-leichtgewichtigen ersetzt – letzterer wiegt etwa 7 t weniger als das Original.

Doch betrachtet man sich alle Veränderungen so haben diese aber nur einen Sinn: Das Space Shuttle sicherer zu machen. Die Zuverlässigkeit eines Triebwerks, gemessen an einem Ausfall sollte z.B. rechnerisch von 1/404 auf 1/2123 sinken. Man hat bei den Triebwerken sogar Leistungseinbußen in Kauf genommen um dies zu erreichen. Der SLWT war z.B. schon 1982 in Planung wurde aber erst eingesetzt, als das Space Shuttle mit den MIR Kopplungsflügen begann und bei der höheren Bahnneigung und höhere Umlaufbahn die Nutzlast rasch abnahm.

Will man die Nutzlast steigern so gäbe es andere Verbesserungsmöglichkeiten. Ein grundsätzliches Problem des Space Shuttles war z.b. die Energiebilanz. Konzipiert war der Orbiter für einen Stromverbrauch von 8 kW – Apollo kam noch mit 1.5 kW aus. Doch schon vor dem Erstflug war klar, dass er 14 kW brauchen würde und Nutzlasten konnten dies noch erhöhen, z.B. wenn ein Spacelab mitflog. Das Space Shuttle nutzt Brennstoffzellen für die Stromversorgung, das bedeutet dass man für mehr Leistung mehr Wasserstoff und Sauerstoff mitführen muss. Dies geschieht in Paketen mit Tanks für Sauerstoff und Wasserstoff. ein Packet wiegt 940 kg und liefert etwa 884 kW Strom und 560 l Wasser. Bei einer 30 Tages Mission mit dem Spacelab braucht man so 15.6 t an Packs für die Brennstoffzellen. Da die leeren Packs (die immerhin noch 380 kg wiegen) die maximale Landenutzlast reduzieren kann das Raumlabor dann nur noch 6.5 t schwer sein.

Nun kann man das System aus Brennstoffzellen sicher nicht ersetzten, während des Starts und bei der Landung und bei Spitzenbelastungen braucht man Brennstoffzellen um den Strom zu gewinnen. Die 100 kWh die man für Start und Landung braucht, kann man schlecht in Batterien speichern. Doch im Orbit hätte man den Strom solar gewinnen können. Die DLR hatte Anfang der 80 er Jahre für eigene Spacelab Missionen den Versuchsträger DORA entwickelt, ein entrollbares Solarpanel, das man zusammengerollt kompakt im Nutzlastraum unterbringen hätte können. Die Spitzenleistung von 25 kW hätte ausgereicht um eine Dauerleistung von 14 kW zu liefern. Für den Betrieb auf der Schattenseite hätte man den Überschuss in Nickel-Cadmium Batterien gespeichert. Das Gewicht dafür hätte man schon bei 7 Tages Missionen durch die Einsparung von Treibstoff für die Brennstoffzellen hereingeholt.

Warum kam es nicht dazu? Deutschland konnte keine Spacelab Missionen mehr finanzieren und die USA haben nie ein analoges System entwickelt. Das ist um so unverständlicher als das Space Shuttle ja anders eingesetzt wurde als geplant. konzipiert war er für den Aufbau und Versorgung einer Raumstation. Dann koppelt er bald nach dem Start an diese an und wird von ihr mit Strom versorgt. Die Raumstation wurde aber gestrichen, die NASA konnte sich nur ein Großprojekt leisten. Auch für den geplanten Einsatz als Transportmittel für Satelliten war das keine große Einschränkung: Das Aussetzen eines Satelliten erfolgte meist am ersten Tag. Doch nach Challenger wurden alle kommerziellen Transporte gestrichen.

Was blieb waren einige wissenschaftliche Nutzlasten und eben die Flüge mit dem Spacelab und später Spacehab. Nutzlasten bei denen lange Aufenthalte die Ausbeute an Ergebnissen steigerten und die selbst viel eigenen Strom benötigen. Aber vielleicht war es ein neues System mit einem neuen Risiko, z.b. dem dass man das Panel nicht entfalten kann oder nicht mehr zusammenrollen. Das ist der Gedanke hinter allen Veränderungen: Nur kein Risiko oder noch besser das Risiko senken. Paradebeispiel sind die Triebwerke. Beim 109 % Schubniveau sollten sie 55 Flüge überstehen können. Doch kein Triebwerk flog solange. Den Rekord hält Triebwerk Nummer 2041 mit 19 Flügen. Die durchschnittliche Anzahl an Flügen liegt sogar bei nur 6, weil für 5 gebaute Orbiter über 50 Triebwerke gebaut wurden. Anstatt mit 112 % Schubniveau die bei Tests problemlos möglich waren arbeiten sie mit 104 % – das bedeutet eine Einbuße von 4-5 t Nutzlast.

Ich denke das Umdenken in der NASA begann nach Challenger. Vorher galt das Bestreben die Transporte zu maximieren. 1985 flogen die Shuttles 9 mal, und dies obwohl der vierte Orbiter Atlantis erst im Herbst 1985 in Dienst gestellt wurde. Für 1986 waren 13-16 Starts geplant. Die Nutzlast sollte durch die 109 % Triebwerke auf 31.7 t steigen. Ein modifizierter Space Shuttle mit höherer Nutzlast war für SDI geplant. Challenger zeigte, dass man für diesen ehrgeizigen Plan die Sicherheit der Besatzung aufs Spiel gesetzt hatte. Bei der Untersuchung der Explosion der Challenger kamen auch Versäumnisse bei früheren Missionen zur Sprache und die gesamte NASA Philosophie beim Space Shuttle System wurde kritisiert.

Das zeigt die Krux des Space Shuttle Systems: Wenn die Sicherheit wegen der Besatzung die immer mitfliegen muss (nicht aus technischen Gründen, das Space Shuttle wird sowohl beim Start wie auch bei der Landung komplett vom Computer gesteuert, der Pilot darf in den letzten Minuten vor der Landung selbst steuern, muss es aber nicht). oberste Priorität hat, dann sollte man nicht damit Missionen durchführen, die auch unbemannt möglich sind. Unbemannte Missionen können einem geringeren Sicherheitsstandard genügen und Verluste zwingen meist nicht das ganze Programme über Jahre anzuhalten um nachzubessern. Doch die NASA tat genau das Gegenteil: Sie hat das Space Shuttle als Kernkomponente aufgebaut. Erst für den Satellitentransport und dann für den Aufbau der Raumstation. Und das hat weniger etwas mit Technik als vielmehr mit Politik zu tun. Wie heißt es bei der NASA so passend "No bucks without Buck Rogers"….

Intel kämpft an zwei Fronten

Eigentlich könnte es Intel gut gehen. Nach einigen Jahren hat man wieder Oberwasser im Privatkrieg mit AMD: Nicht das Intel jemals gefährdet gewesen wäre – zu jeder Zeit hat man mehr las 60 % aller x86 kompatiblen CPU’s verkauft. Aber AMD konnte durch Intels Fehler (die stromschluckende NetBurst Architektur mit immer größer werdenden Leckverlusten, welche man nicht zu den hohen Taktraten weiterentwickeln konnte) und eigenen Entwicklungen (der effiziente, mehrfach parallele K8 Kern, die Einführung der 64 Bit Architektur) über einige Jahre bis zu 30 % des Markts erobern und auch satte Gewinne einfahren.

Nun hinkt AMD Intel hinterher, sowohl was die Anzahl der Kerne, wie auch den Stromverbrauch und die maximale Geschwindigkeit betrifft. Intels Marktanteil ist wieder bei 80 % und man könnte zufrieden sein. Doch das Gegenteil ist der Fall. Der PC Markt ist in Europa und den USA gesättigt. Das Wachstum in zweistelligen Prozentmargen gehört auf diesen Märkten der Vergangenheit an. Auch steigt die Nutzungsdauer eines PC. Waren es 2001 noch durchschnittlich 36 Monate so sind es nun 52.

Doch es gibt ja noch andere Märkte: Die Entwicklungsländer. Das Dumme nur dabei: Die größeren Märkte versuchen ihre eigene CPU zu entwickeln, wie z.B. China. Die anderen Entwicklungsländer haben zwar einen bedarf an Rechnern aber nicht an Intels teuren PC Prozessoren. Zum einen sind diese viel zu teuer, zum anderen wird ihre Leistung nicht benötigt: Für Bildung vermitteln, im Internet surfen und Büroanwendungen reicht ein kleiner Chip. Ins Internet konnte ich auch mit einem 100 MHz 486 Prozessor gehen. Damit geht vielleicht nicht YouTube Videos anschauen, aber sonst alles. Das gleiche gilt für gängige Office Anwendungen – wenn man nicht gerade die neueste Version benutzt.

Bei Verzicht auf Rechenleistung braucht man auch nicht Windows XP und den KDE 4.0, die älteren Versionen des Betriebssystems reichen. Dafür ist der Preis wichtig. nicht umsonst sollte der Computer für Schüler in Dritte Welt Ländern OLPC für 150 Dollar produziert werden.

Im Segment für niedrige Rechenleistung gibt es auch noch eine zweite Bedrohung. Diese ist wohl ernster. Es geht um neue Märkte. Der Multimedia PC wird ja nun schon seit Jahren propagiert. Es ist aber fraglich ob er einfach ein normaler PC mit Multimedia OS sein wird. Windows, wie auch andere Linux Editionen sind einfach nicht mit einer Fernbedienung zu bedienen. Sie brauchen viel Speicher und viel Rechenleistung um in angenehmer Geschwindigkeit zu laufen und für einen derartigen Prozessor braucht man einen Lüfter und damit ist der Multimedia PC weder geräuschlos noch flach um im Hi-FI Regal zu verschwinden.

Es sieht so aus, als gäbe es eher eine Vielzahl von normalen Geräten die zusätzliche Funktionen haben und die alte Hi-Fi und TV Geräte ersetzen. Das gibt es heute schon:

  • DVD Recorder mit Festplatte
  • Stereoanlagen die MP3 abspielen können und externe USB Anschlüsse haben
  • Stand-Alone Internet Radios
  • USB Platten mit TV Decodern/Encodern, die Videos aufzeichnen und abspeichern können.

Damit ist man heute schon weitgehend unabhängig vom PC. Keines dieser Geräte braucht eine x86 CPU, ein billiger ARM Prozessor oder eine embedded MIPS CPU reicht dafür aus. Nun hat Via eine neue C7 CPU vorgestellt die an die Performance der Einsteiger CPU heranreicht. Das reicht wahrscheinlich nicht für die meisten PC Anwendungen, aber vielleicht für einen Multimedia PC. Der Stromverbrauch ist so klein, dass ein Lüfter nur bei Volllast anspringt.

Das dritte sind die ultramobile Devices. Neben TV Speilern, DVD Spielern und Handys, Smartphone die heute schon Videos aus dem Internet abspielen können, Fernsehen empfangen etc. gibt es nun Mini-Notebooks à la EE-PC. Die Frage ist ob man für ein Gerät das nicht ein vollwertiges Notebook sein soll, sondern eher zum schnellen Beantworten von Mails, surfen im Internet, Notizen machen, Videos anschauen. Brauche ich dafür Windows XP oder Vista? Brauche ich einen 2 GHz Prozessor? Nein. Dafür reicht eine einfache CPU, ein schnell startbares schlankes Linux oder Windows CE. Dann ist man aber nicht mehr abhängig von Intel. Ein XScale Prozessor oder ein Signalprozessor mit HD Encoder / Decoder wie es ihn von ZTI gibt erledigen diese Aufgaben mit unter 1 GHZ Taktfrequenz und nur wenigen Watt Strombedarf. Das kommt der Akkulaufzeit zugute, den auch die Akkus müssen bei diesen Geräten schlank sein.

Kurzum: Auf dem niedrigen Preissegment entsteht ein Markt bei dem man zwar pro CÜU nicht viel verdient, aber bei dem es um enorme Stückzahlen geht. Man muss nur den PC Bedarf der dritten Welt und die vielen Multimediageräte in den Industrieländern zusammenzählen.

Doch Intel verdient ja noch gut im High-End Bereich. Den Vierkernprozessoren mit hohen Taktfrequenzen kann AMD nichts entgegensetzen. Diese kann man teuer und mit hohen Gewinnmargen verkaufen. Doch braucht man diese? Ich arbeite mimt einer DualCore (AMD-4800+, 2 x 2.5 GHz) im Geschäft und einem Single Core (AMD 3000+ 1 x 1.8 GHz) daheim. Unterschiede bemerke ich nur wenn der Virenscanner aktiv ist oder ich ein Video ansehe und sonst was mache – die zweite CPU ist eine Bequemlichkeit, wenn die erste durch einen Prozess ausgelastet ist. Das mehrere Prozesse gleichzeitig aktiv sind die alle viel Rechenleistung brauchen ist eher selten und wenn dann greifen diese auch meist auf die Festplatte zu und die bremst dann aus. Die Vierkern-CPU bringt derzeit wenig nutzen. Eine Anwendung für Otto-Notmalverbraucher dürfte das Dekodieren von Full-HD Material sein, wozu man je nach Cache eine 2.0-2.3 Dual Core CPU braucht.

Dumm nur, dass nun AMD einen Chipsatz vorgestellt hat der die Decodierung von Full-HAD mit erledigt. Da braucht man nun auch keine schnelle CPU dafür. Noch schlimmer. NVidia hat eine neue Anwendung für ihre Grafikkarten entdeckt. Eine Grafikkarte hat eine CPU die anders aufgebaut ist als eine normale CPU. Lange Programme mit Unterprogrammen, Verzweigungen, variablen Abläufen können diese nicht ausführen oder wenn dann langsam. Aber sie haben viele Rechenwerke – die Spitzenprodukte von NVidia bis zu 512 Stück, die einfache Rechenoperationen sehr schnell durchführen. Misst man die Performance in GFLOPs, dann ist das Spitzenprodukt von NVidia etwa 10 mal schneller als der schnellste PC Prozessor. Nun bietet NVidia eine Bibliothek an bei der man diese GPU’s mit normalen PC Anwendungen nutzen kann im 2D Betrieb wird einfach der brachliegende Teil für andere Zwecke genutzt. Das ist ein offener Angriff auf Intels High-End Bastion.

Mehr noch NVidia bringt nun auch den Tegra Chip heraus: Eine CPU mit GPU und Full-HD Decoder. Der Chip braucht trotzdem nur 800 MHZ Takt und konsumiert 2 Watt. Damit greift NVidia wie andere Intels Atom Chip an. Die Atom CPU ist eine minimalisierte x86 CPU, ohne große Caches, mit kleiner Taktfrequenz und in order Architektur. Die nur 25 mm² große CPU sollte sehr billige Rechner ermöglichen (Eine Kombination aus CPU und Motherboard kostet nur 70 Euro).

Es wird spannend – und für uns Verbraucher kann die Konkurrenz nur recht sein, vielleicht springen neue innovative Produkte heraus oder sie werden billiger…

Zwei Jahre Blog und die EM

Ja, genau vor 2 Jahren habe ich damit angefangen. Wie immer bei Jubiläen eine Gelegenheit zur Retrospektive. Doch dazu später mehr. Ich will mich zuerst einmal der Frage widmen, warum man bloggt? Ich bin ja schließlich nicht der einzige und viele Blogs müssen ganz ohne Kommentare auskommen, die ja wohl die Eigenheit eines Blogs ist. Trotzdem ist bloggen eine Volksbewegung geworden. Was treibst einen dazu eine Internet Tagebuch zu führen? Ich kann nicht für andere schreiben, aber bei mir war die Intension wohl eine andere als bei anderen Bloggern. Ich konnte damals mit der Blog Idee nicht so viel anfangen. Die meisten Blogs drehen sich ja in irgendeine Weise um das tägliche Leben des Bloggers oder die Gedanken dessen. Ich konnte mir (und kann mir auch heute noch) nicht vorstellen, dass dies für irgendjemand interessant sein könnte. Mit dem klassischen Konzept eines Blogs kann ich daher nicht so viel anfangen, daher habe ich auch den Schritt von der Webseite zum WordPress Blog, bei dem jeder Kommentieren kann erst mehr als ein Jahr später gemacht. In meinem ersten Blogs findet sich daher auch noch so ne Art Präambel wie ich es sehe und dass es vielleicht nur kurzzeitig so ist, man erkennt schon, dass ich mir damals nicht sicher war ob das was für mich ist.

Continue reading „Zwei Jahre Blog und die EM“