Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 597: 30.7.2020 - 14.8.2020

30.7.2020: Prozessorarchitekturentwicklung

Im heutigen Artikel will ich knapp mal die Grundlagen der internen Optimierung von Prozessoren aufgreifen. Das Thema ist nicht neu, ich habe es auf meiner Webseite in mehreren Artikeln ausführlich behandelt.

Der Befehlszyklus

Ein Mikroprozessor der ersten Generationen, aber auch viele größere alte Computer arbeiteten nach dem Befehlszyklus. Die Ausführung jedes Befehls unterteilte sich in drei elementare Operationen:

Jeder Befehl besteht mindestens aus diesen drei Phasen, sie können sich aber auch wiederholen. Sind Daten Bestandteil des Befehls, so kommt mindestens ein weiterer Fetch-Zyklus hinzu, um diese zu holen. Komplexe Befehle belegen mehr als ein Byte und dann steht der Befehl nach dem ersten Decode nicht fest und es kommt noch ein Fetch / Decode hinzu und zuletzt benötigen nur einfache Befehle einen Ausführungszyklus. Komplexe Befehle können davon mehrere benötigen. Bei mathematischen Operationen sind das z.B. Multiplikation oder Division. Für jeden Mikroprozessor kann man so für einen Befehlsmix, den man anhand typischer Programme bestimmen kann angeben, wie viele Takte er typischerweise für eine Befehlsausführung braucht. Beim Urahn der x86 Reihe, dem 8086 waren dies 10 Takte. Bei maximal 8 MHz bei seiner Einführung konnte er also 800.000 Instruktionen pro Sekunde ausführen – diese Zahl (0,8 MIPS) war früher eine grobe Leistungsangabe. Grob nur deswegen, weil die Befehle der verschiedenen Prozessoren unterschiedlich waren und so nicht direkt vergleichbar.

Die Pipeline

Intern zerfällt ein Prozessor in Untereinheiten mit jeweils einer bestimmten Funktion. Das können z.B. sein:

Das sind nur einige mögliche Einheiten. Die erste Erkenntnis der Prozessorbauer war, dass bei dem obigen Zyklus bei jeder Phase nur eine dieser Einheiten aktiv war. Beim Fetch eben die Busansteuerung und bei Decode der Befehlsdecoder. Bei Execute hing es vom Befehl ab. Die anderen Einheiten hatten nichts zu tun. Bei einer Pipeline ist das anders. Da holt bei jedem Takt die Fetch Einheit ein Byte aus dem Speicher, der Dekoder dekodiert ein Byte und die Ausführungseinheiten führen den Befehl aus. Da der Befehl so von Station zu Station wandert, nennt man das Pipeline.

Das ganze klingt, aber einfacher als es ist und hat in der Praxis einige Tücken. So kann die Adresse wechseln, wenn z.B. ein Unterprogramm aufgerufen wird. Dann wurden schon Daten aus dem Speicher geholt, die man gar nicht brauchte. Trotzdem kann eine Pipeline die Ausführung drastisch beschleunigen. Bei der x86 Serie wurde sie mit dem 80286 eingeführt, bei Großcomputern Mitte der Sechziger Jahre. Ein prominentes Beispiel war die IBM 360 Serie.

Wie groß eine Pipeline ist, das hängt von der Architektur ab. Beim 80286 hatte sie drei Stufen also drei Befehle konnten gleichzeitig bearbeitet werden. Bei Großrechnern mit RISC-Architektur stellte man in den Sechzigern fest, dsas das Optimum für diese Befehle bei sechs Stufen lag. Demgegenüber erreichten einige Versionen des Pentium III eine Pipeline von 32 Stufen – das war dann doch etwas zu viel und heutige Prozessoren haben zwischen 14 und 19 Stufen. Rein theoretisch kann man so mit eiern Pipeline die Ausführungszeit auf minimal 1 Takt pro Befehl drücken, das hatte man bei der x86 Architektur mit dem 80486 erreicht, der 80 % aller Befehle in einem Takt ausführen konnte.

Superskalar

Der Begriff „superskalar“ ist etwas verwirrend. Es ist so ein typisches Fachwort. Skalare sind bei Computern einfache Daten, also eine Zahl, ein Byte oder eine Adresse. Das Gegenteil davon ist der Vektor, eine Datenstruktur aus vielen Skalaren, wir würden dazu sagen ein Feld wie man es auch direkt in Programmiersprachen (meist mit dem Schlüsselwort „Array“ deklarieren kann. „Super“ bedeutet in Latein „über“, es ist also mehr als eine skalare Architektur. Gemeint ist damit schlicht und einfach, dass die oben erwähnten Funktionseinheiten mehrfach vorhanden sind.

Will man mehr als einen Befehl pro Takt ausführen, so ist logisch, das diese Einheiten mehrfach vorhanden sein müssen, denn nur so kann man mehr als einen Befehl pro Pipelinestufe bearbeiten. Bei Großcomputern wurde das ebenfalls Mitte der Sechziger Jahre eingeführt, einer der ersten Rechner war die CDC 6600. Bei der x86 Linie hatte der Pentium erstmals eine Einheit verdoppelt, das war die ALU, welche auch die meisten Operationen ausführen muss.

Doch auch hier gibt es Probleme. So können Befehle voneinander abhängen. Bei jeder Befehlszeile in einer höheren Programmiersprache, die mehr als eine mathematische Operation beinhaltet, ist das der Fall, denn Prozessoren können (meist) nur eine Operation pro Befehl durchführen. Dann gibt es aber eine Abhängigkeit – die zweite Operation braucht das Ergebnis der ersten um weiter rechnen zu können. Bei:

D = A+ B + C

muss man zuerst A+B addieren, bevor man zum Zwischenergebnis C addieren kann. Das hält dann wieder auf. Die Lösung bei komplexeren Prozessoren ist eine eigene Einheit, der Scheduler, der Buch führt, welche Einheiten wie belegt sind und die Befehle dann auf die Einheiten verteilt. Er kann Befehle so vorziehen, wenn wie oben ein Befehl auf ein Ergebnis warten muss. Das nennt man „out of Order execution“. Das ist ein mächtiges Werkzeug. Innerhalb der x86 Serie haben alle Prozessoren dieses Feature bis auf die Atoms. Wer jemals einen Computer mit einem Atom (z.B. ein billiges Notebook oder Tablett) und einen iCore Prozessor hatte ,weiß wie unterschiedlich schnell die bei ähnlichem Takt sein können. Seit der Haswell-Generation hat ein x86 Prozessor übrigens 14 Funktioneinheiten, die ALU ist als häufigste Einheit nicht weniger als sechsmal vorhanden. Maximal 4 Befehle pro Takt können ausgeführt werden.

Mehrere Kerne

Verhältnismäßig spät wurden bei der x86 Architektur mehrere Kerne eingeführt. Der große Unterschied – der ganze Prozessor ist mehrfach vorhanden. Dazu gehören neben den Funktionseinheiten bei heutigen Prozessoren auch die Caches – Zwischenspeicher, weil bezahlbares DRAM schon seit 30 Jahren zu langsam für Prozessoren sind, Register aber auch die gesamte Verbindung zur Außenwelt.

Mehrere Kerne verlagern die Logik, wie man die Beschleunigung von Programmen verbessern kann, vom Prozessor auf das Betriebssystem. Es ordnet jedem Kern einen Prozess zu. Selbst wenn nur ein Benutzer am Computer sitzt, können das viele Prozesse für Systemaufgaben sein. Bei Großrechnern, die aber meist viele Benutzer bedienen, zogen Mehrkernprozessoren viel früher ein, da man so praktisch jedem Kern einen oder mehrere Benutzer zuweisen konnte. Auch ein einzelnes Programm kann so beschleunigt werden, weil oft in einer Schleife immer die gleiche Operation auf unterschiedlichen Daten durchgeführt wird, dann kann man jeden Schleifendurchlauf einem anderen Kern zuweisen. Auch dies verlagert die Logik auf eine höhere Ebene, diesmal auf die Entwicklungsumgebung welche das Programm in einer höheren Sprache wie C in den Maschinencode überträgt. Der Nachteil: erfolgt das nicht, dann wird nur ein Kern benutzt.

Ein Zwischending ist SMT – Symmetrical Multithreading. Bei Intel auch als Hyperthreading bezeichnet. Das ist im Prinzip ein Prozessor, der dem Betriebssystem mehr Kerne meldet als er tatsächlich hat, z.B. acht anstatt vier. Intern nutzt er in den vier Kernen unbenutzte Einheiten, um damit die Befehle der nicht existierenden vier Kerne abzuarbeiten. Das ist also eine interne Optimierung der Auslastung. Der Nachteil: gegenüber einem echten Kern beträgt der Gewinn an Geschwindigkeit nur 25 %. Beim obigen Beispiel wäre der Prozessor also so schnell ein Prozessor mit fünf Kernen.

Immer mehr Kerne

Als Intel 2005 den ersten Mehrkernprozessor einführte, versprach die Firma das sich jede Generation, also alle zwei Jahre, die Kernanzahl verdoppeln würde, man heute also 256 Kerne haben müsste. Dem ist nicht so. Xenons, Prozessoren für Server sind mit bis zu 28 Kernen zu haben. Beim Desktop stieg die Kernanzahl sogar nur langsam und lag bis vor drei Jahren bei maximal sechs. Durch AMD und seine Ryzen-Architekltur ist da etwas Bewegung gekommen.

Das grundlegende Problem bei mehr Kernen ist das jeder Kern natürlich seine eigenen Signalleitungen hat. Es gibt pro Kern mindestens 64 Daten- und 44 Adressleitungen, dazu etliche Leitungen mit Spannungen und für Signale oder Handshhakes. Aktuell haben die gängigen Fassungen über 1.000 Anschlusspins. Das ist nicht einfach steigerbar. So ruderte Intel auch beim Xenon Phi zurück, der mal 256 Kerne haben sollte, als er mit mehrjähriger Verzögerung herauskam, waren es schließlich 50. Die Serverprozessoren haben mehr Kerne, weil auch der Chipsatz mehr Speicherriegel zulässt, acht oder 16 pro Board. Bei der iCore Serie ist bei maximal vier Speicherslots Schluss und der Speicher muss die Daten auch liefern. 28 Prozessoren benötigen eben siebenmal mehr Daten pro Zeit als vier und entsprechend mehr Speicherkanäle, jeden mit seinem eigenen Bus der dann weitere Anschlusspins benötigt.

Grafikkarten zeigen wie eine mögliche Lösung aussehen könnte. In der Architektur unterscheiden sie sich leicht von den CPU. Sie haben nicht mehr Kerne, dafür sehr viele, bis über Tausend Funktionseinheiten, die meist jedoch viel einfacher aufgebaut sind als die von Prozessoren. Sie sind auf eine massiv parallele Abarbeitung von immer gleichen Daten getrimmt, nicht auf die universelle Ausführung beliebiger Programme. Die Daten holen sie daher über sehr breite Busse (bis zu 512 Bit pro Zugriff anstatt 64) und damit dies schnell geht, ist das RAM direkt angebunden, fest auf die Karte verlötet, wie dies bis 1990 auch bei den PC der Fall war.

Vielleicht geht der Trend auch wieder zurück zu diesem Fall, dass man eben ein Mainboard mit mehreren festen RAM-Ausbaustufen anbietet, dafür es aber einen viel breiteren Bus zum Prozessor gibt, der ebenfalls dann fest verlötet auf dem Board ist, was die Zwischenstation über die Pins die man aus mechanischen Gründen nicht beliebig verkleinern kann, umgeht.

31.7.2020: Die Lösung für ein überflüssiges Problem: Die ISS mit dem Space Shuttle

Die große Tragik im Space Shuttle Programm war meiner Ansicht nach, das es ursprünglich gebaut wurde, um eine Raumstation zu versorgen und aufzubauen und gerade als diese fertig wurde es außer Dienst gestellt wurde. In allen anderen Rollen, die es vorher innehatte, war es entweder ein teurer Ersatz für eine Rakete oder erlaubte nur kurze bemannte Missionen. Zuggegeben – das Shuttle, das als Space Station Versorger geplant war, war auch eine Nummer kleiner mit nur 12 t Nutzlastmasse, was aber heute gemessen an den unbemannten Versorgern immer noch viel wäre.

Ich will heute mal skizzieren, wie eine ISS aussehen könnte, die das Space Shuttle versorgt und auch mal einen Preisvergleich anstellen.

Das Wichtigste zuerst: die heutige Situation auf der ISS ist nicht die die geplant war. Die ISS war bis 2005 auf eine Stammbesatzung von 7 Astronauten (davon 4 im westlichen Segment) ausgelegt, die sich alle 90 Tage abwechseln. Erst die Außerdienststellung des Space Shuttles reduzierte die Besatzung auf sechs, weil mehr nicht mit zwei Sojus Kapseln fliegen können. Ebenso wurde die Aufenthaltsdauer verdoppelt, weil Russland nicht acht Sojus, die man sonst benötigt hätte pro Jahr fertigen kann.

So blieben dann auch zwei Module, davon ein Wohnmodul komplett am Boden. Inzwischen gibt es aber zwei neue Module. Das BEAM, ein aufblasbares Modul von Bigelow und das PMM ein umgebautes MPLM des Space Shuttles. Beide werden derzeit aber nur genutzt, um Dinge zu verstauen.

Mannschaften

Würde das Space Shuttle noch fliegen, so könnte jeder Start 7 Astronauten transportieren. Wenn der Pilot und Copilot nur für das Space Shuttle zuständig sind und wieder mit der alten Mannschaft zurückkehren, könnte es also 5 Personen zur ISS bringen, dazu kämen drei Kosmosnauten die Russland mit der Sojus startet. Das wäre eine Stammbesatzung von 8, würden auch die beiden Piloten an Bord der ISS bleiben, dann sind es 10. Den Platz für sie gäbe es, wenn man das PMM als Wohnmodul nutzt und jedes der schon existierenden Labore hat genug Platz und Experimente für zwei bis drei Personen, an Arbeit fehlt es bei drei Laboren also auch nicht. Wenn nicht kann Russland ja (mit inzwischen 14 Jahren Verzögerung) mal Nauka starten und natürlich könnte das Space Shuttle auch die zwei Module die mal geplant waren noch starten. Die Arbeit an ihnen wurde allerdings schon im Rohbau beendet.

Die Personenzahl ist von Bedeutung, weil die ISS relativ viel Arbeit nur für "Housekeeping" also Aufrechtherhalten des Zustandes benötigt. Früher war dies noch schlimmer, doch auch heute geht dafür viel Zeit drauf. Bedingt durch den Ausfall einer Sojus im letzten Jahr kann man das gut beziffern: Während Expedition 57/58 fehlten zwischen dem 11.10 und 3.12. drei Astronauten, da es einen Fehlstart der Sojus gab. Nominell sollten es 1080 Manntage sein, nun waren es 159 Tage weniger. Das sind 15 % weniger Arbeitszeit. Bedingt durch die fehlenden Arbeitskräfte, aber auch die Situation, die sicher Mehrarbeit verursachte wurden, bei Expedition 57/58 nur 1144 Arbeitsstunden abgeleistet, bei der folgenden dagegen 2857 – also fast das zweieinhalbfache. Dieses Missverhältnis erklärt sich daraus, das die ISS mindestens drei Personen braucht, damit sie überhaupt reibungslos läuft. In den über 50 Tagen mit drei Astronauten fiel die Forschung daher ganz aus. Die 2857 Stunden entsprechen, wenn man 6 Arbeitstage pro Woche ansetzt, auch nur 3 Stunden Nettoarbeitszeit pro Astronaut, das heißt, wenn man 12 Stunden pro Tag als nutzbare Zeit ansetzt, dann gehen ¾ dieser Zeit für andere Tätigkeiten drauf, dazugehört auch Sport. Die Verlängerung der Aufenthaltsdauer von 90 auf 180 Tage bedeutet auch das die Astronauten mehr trainieren müssen, um ihre Gesundheit nicht zu sehr zu gefährden. Es sind 2 Stunden pro Tag. Wenn man dies nur auf die Hälfte reduzieren kann, weil man auch schon nach 90 Tagen zurückkehrt, gewinnt man schon ein Drittel der Arbeitszeit.

Würde man mit dem Space Shuttle die Astronautenzahl von 6 auf 8 erhöhen so sähe dann eine Rechnung so aus:

Bezogen auf die heutigen 180 Tagesmissionen, abzüglich 4 Tagen für den Transfer und je einen freien Tag pro Woche entspricht das 3318 Stunden mehr, also eine Verdopplung der Zeit, die für Forschung zur Verfügung steht (die Qualität dieser Forschung ist wiederum ein anderes Thema). Mit dem Space Shuttle, das ohne Problem vier Flüge pro Jahr durchführen kann, würde die Forschung also um mehr als 100 % zunehmen.

Fracht

Ein Vorteil des Space Shuttles war, das es anders als die heutigen Zubringer auch Personen und Fracht transportieren konnte. Brutto maximal 18,2 t, doch davon gehen zahlreiche Dinge ab. So der Kopplungsadapter, wenn es Fracht in einem Druckmodul ist, die Leermasse eine MPLM und bei Fracht ohne Druckausgleich ist es das Gewicht der Paletten. Wenn ich nur den schlechtesten Fall nehme, ein MPLM ohne Paletten so sind es 9,1 t pro Flug pro Jahr mithin 38,4 t. Im Jahre 2019 flogen folgende Transporter die ISS an:

Das sind zusammen 27.377 kg Fracht für sechs Personen und ein Jahr Betrieb. Bei acht Personen sind es dann ein Viertel mehr also 36,5 t. Das liegt in dem Transportvermögen des Space Shuttles.

Kosten

Allgemein wird das Space Shuttle ja als teuer angesehen. Doch ist dem wirklich so? Auch das kann man nachrechnen. Die NASA zahlt 90 Millionen Dollar für jeden der vier Sitze an Bord eines Starliners und 55 Millionen für eine Crew Dragon, dass führt zu 360 bzw. 220 Millionen Dollar pro Flug. Wie das Space Shuttle könnten beide Vehikel auch mehr als die geplanten vier Astronauten befördern und das wahrscheinlich ohne signifikante Mehrkosten. Nur benötigt man für eine 90 Tage Crewrotation vier Starts pro Jahr, je zwei von SpaceX und Boeing, die addieren sich so zu 1.160 Millionen Dollar. Die NASA rechnet mit Frachtkosten von 71.800 Dollar/kg im Durchschnitt bei CRS-2. Das sind bei 36,5 t Fracht weitere 2.621 Millionen Dollar, zusammen also 3.871 Millionen Dollar.

Nimmt man dagegen die Kosten des Space Shuttles Programms von 2007 bis 2010 (danach lief das Programm aus, vorher gab es hohe Aufwendungen für die Umrüstung, Kündigungsverträge ohne Flüge), so gab es in der Zeit 17 Flüge und Aufwendungen in Höhe von 12.722 Millionen Dollar, also 741 Millionen Dollar pro Flug, bei vier pro benötigten Space-Shuttle-Starts pro Jahr mithin 2.964 Millionen Dollar im Jahr. Das Space Shuttle wäre also billiger als eine adäquate Lösung mit Kapseln, und zwar um rund 900 Millionen Dollar. Bei noch mehr Flügen würde das noch günstiger werden, weil das Space Shuttle Programm einen hohen Fixkostenanteil hat, der bei etwa 9.600 Millionen Dollar für die vier Jahre liegt. Und dabei ist dies noch pessimistisch gerechnet, mit einer Palette zum MPLM käme man auf weitere 1,5 bis 2 t Fracht ohne Druckausgleich, wenn man die Nutzlastkapazität voll ausnutzen würde. Und wie schon gesagt könnte man auch die Besatzung auf 10 Personen erhöhen, wenn die beiden Piloten auch an Bord der ISS bleiben – beim Space Shuttle würde eine Dauerbesatzung von 10 Personen fast keine Mehrkosten verursachen, bei unbemannten Vehikeln dagegen weitere 656 Millionen Dollar für die benötigte Fracht mehr (aber keine für den Crewtransport).

Vielleicht versteht ihr nun, warum ich von einer Tragik spreche.

5.8.2020: Ammoniumnitrat

Am 5.8.2020 kam es in der libanesischen Hauptstadt Beirut zu einer großen Explosion bei der es viele Tote und Verletzte gab. Schon bevor man genau wusste, was die Ursache war, gingen die Spekulationen los? Ist ein Munitionsdepot explodiert oder war es ein terroristischer Anschlag? Das ging auch noch weiter, als die libanesische Regierung eine erste Einschätzung abgab. Die Ursache waren 2.750 t Ammoniumnitrat, die seit sechs Jahren in einem Lagerhaus untergebracht waren. Sie waren von einem Frachter konfisziert worden. Das erklärt zwar vieles nicht. wie die Explosionsursache und warum man diese Menge an Ammoniumnitrat jahrelang vergessen konnte, aber zumindest bei meinem Radiosender änderte das an der Berichterstattung nicht viel und er sprach weiterhin davon, dass Ammoniumnitrat ein Ausgangsmaterial für den Bombenbau wäre.

Okay, das letztere sagt nicht viel aus, wie ich schon vor mehr als 12 Jahren schrieb, kann jedermann aus Blondiermittel, einem Fettlösemittel und etwas Säure eine Bombe bauen, deswegen dürft ihr auch nicht mehr als 250 ml Flüssigkeit in Flugzeuge mitnehmen. Aber gehen wir dem auf den Grund.

Ammoniumnitrat ist das Salz, dass man erhält, wenn man die Säure Salpetersäure mit der Base Ammoniak umsetzt. Wie der Name „...nitrat“ schon aussagt, gehört es zur Gruppe der Nitrate also der Salze der Salpetersäure. Andere bekannte Vertreter aus dieser Gruppe sind Natriumnitrat und Kaliumnitrat umgangssprachlich Chilesalpeter und Salpeter genannt. Wie andere Nitrate kann man Ammoniumnitrat zur Explosion bringen, dabei zerfällt es in Stickstoff, Sauerstoff und Wasser. Das liegt daran, dass das Molekül Stickstoff sowohl in reduzierter Form wie oxidierter Form enthält. Aufgrund der Tatsache, dass dabei nur Gase frei werden, ist das Gasvolumen viel größer, als bei anderen Salpeterverbindungen. Als Beimischung findet man auf dieser Tatsache daher Ammoniumnitrat in der Tat bei anderen Sprengstoffen, um deren Eigenschaften zu verbessern.

Aber:

Auch wenn Ammoniumnitrat explosiv ist und es in der Vergangenheit zahlreiche Katastrophen gab, ist es im eigentlichen Sinne kein Sprengstoff, beispielsweise zerfällt es bei Erhitzung ohne zu Explodieren in Lachgas und Wasser. Auch nach dem deutschen Sprengstoffgesetz ist Ammoniumnitrat nicht als Sprengstoff eingestuft.

Warum?

Ammoniumnitrat erzeugt zwar ein enormes Gasvolumen, was für einen Sprengstoff wichtig ist, es fehlt ihm aber die nötige Brisanz: Eine Explosion ist im Prinzip eine Verbrennung, die sehr schnell abläuft, so schnell, dass die entstehenden Gase einen enormen zerstörerischen Druck aufbauen, weil sie nicht so schnell entweichen können – auch ohne Sprengstoff kann man z.b. Explosionen verursachen, wenn man verschlossene Behältnisse wie Flaschen oder Dosen erhitzt. Für einen Sprengstoff ist eine charakteristische Größe die Detonationsgeschwindigkeit, die gibt an wie schnell die chemische Reaktion fortschreitet, das heißt wie viel Zeit man benötigt, um eine bestimmte Menge eines Stoffes umzusetzen und mit 2.400 m/s liegt Ammoniumnitrat in der Region, wo auch explosive Gasgemische wie die Mischung von Ethin oder Wasserstoff liegen. Es gibt zwar auch den Begriff „Knallgasexplosion“, aber eigentlich ist es eine Verpuffung und das wird wohl auch bei der Explosion in Beirut der Fall gewesen sein. Natürlich richten 2.750 t, die spontan verpuffen, trotzdem einen riesigen Schaden an, genauso wie eine Explosion, einfach aufgrund der Menge.

Sprengstoffe wie sie in Industrie und Militär eingesetzt werden haben dagegen Detonationsgeschwindigkeiten von 5.000 bis 9.000 m/s. Ebenso ist seine Schlagempfindlichkeit recht hoch, doppelt so hoch wie bei Sprengstoffen. die man nicht spontan zünden kann. sondern nur elektrisch oder durch einen anderen Sprengstoff. Analoges gilt für die Reibeempfindlichkeit. Es ist daher auch nicht per se explosiv.

Warum Ammoniumnitrat in den Medien trotzdem als Ausgangsmaterial für Sprengstoffe genannt wird? Die meisten verwendeten Sprengstoffe sind Nitroverbindungen, Verbindungen der Salpetersäure mit organischen Materialien wie Glycerin, Cellulose, Toluol. Diese werden durch Nitrierung, der Umsetzung mit Nitriersäure, einem Gemisch von Salpetersäure und Schwefelsäure hergestellt.

Salpetersäure ist eine oxidierende Säure, die zahlreiche Metalle angreift, sie zersetzt sich selbst und setzt dabei giftige nitrose Gase frei (das Stickstofftetroxid das in der Raketentechnik als Oxidator verwendet, wird ist ein solches Gas). Man kann aus Ammoniumnitrat durch Zusatz von Schwefelsäuren und Destillieren die Salpetersäure wieder zurückgewinnen, Schwefelsäure braucht man sowieso um Nitriersäure herzustellen. Somit kann man Ammoniumnitrat als eine Form betrachten in der man Salpetersäure viel einfacher transportieren und handhaben kann.

Meine Ansicht

Ich würde mich trotzdem festlegen, das die 2.750 t Ammoniumnitrat nie zur Herstellung von Sprengstoff gedacht waren. Warum? Einfach wegen der Menge. Selbst wenn eine terroristische Vereinigung auf die Idee kommen würde, den Sprengstoff selbst herzustellen, anstatt ihn irgendwo illegal von zivilen oder militärischen Quellen zu beziehen, ist diese Menge weitaus größer als das was sie brauchen. Mit einer Tonne Sprengstoff können sie ein ganzes Hochhaus sprengen und hier haben wie viele vieltausendfache Menge davon. Daneben bräuchten sie eine richtige Fabrik, kein Labor in einer Garage, um diese Menge in einer Zeit umzusetzen, die erträglich ist – und die unauffällig aufzubauen, wird wohl kaum möglich sein und noch dazu ziemlich teuer.

Ich glaube eher das dieses Ammoniumnitrat für das bestimmt war, wo auch sonst das meiste Ammoniumnitrat hingeht: in die Düngeindustrie. Pflanzen brauchen Stickstoff denn auch sie bilden Eiweiße. Den Stickstoff aus der Luft können sie jedoch kaum aufnehmen, auch wenn einige Arten hier effizienter sind, weil sie eine Symbiose mit Bakterien eingegangen sind, die diese Fähigkeit haben. Die wichtigste Stickstoffquelle für alle anderen Pflanzen sind die Stickstoffverbindungen die natürlich entstehen, entweder als Abbauprodukte wie Lachgas oder bei Reaktionen wie z.B. bei Blitzen. Stickstoff ist also ein Mangelelement und jeder Dünger enthält als Hauptbestandteil eine Stickstoffverbindung, die leicht wasserlöslich ist, meistens eben Nitrate und hier vor allem Ammoniumnitrat ist dabei besonders gut geeignet, weil das Molekül zwei Stickstoffatome enthält. Im Wasser zerfällt es in die Ionen Ammonium und Nitrat, beide gut wasserlöslich und beide leicht von Pflanzen verwertbar. Bedenkt man, welche Mengen an Dünger jedes Jahr eingesetzt werden, ist klar, das man dafür auch enorme Mengen an Ammoniumnitrat braucht, wie eben die 2.750 t die der Frachter geladen hatte.

11-8.2020: Wer zu früh kommt, den bestraft das Leben …

--- möchte ich in Anlehnung eines Gorbatschow-Zitates prognostizieren. Gestern hat die SPD Olaf Scholz zum Kanzlerkandidaten gekürt. Die Ansichten der politischen Gegner sind eindeutig gegen die frühe Nominierung und die Person. Es gäbe jetzt mit Corona andere Probleme und in der langen Zeit bis zur Wahl würden sich Scholz und links-orientierter Parteivorstand zerreiben. Nun ja das Erste sehe ich nicht so. Corona bedeutet zwar einen Ausnahmezustand aber nicht, dass man dafür alles in eine ferne Zukunft schiebt. Die zweite Gefahr sehe ich durchaus. Andererseits erfolgte ja die Nominierung durch Borjans/Esken, also sollten sie dann hinter der Person und ihrem eher „konservativ“ (sofern es so was in der SPD überhaupt gibt) geprägten Ansichten stehen, die sich ja dann auch im Wahlprogramm niederschlagen.

Ich sehe zwei andere Gefahren. Das eine ist die Abnutzung. Jeder der neu gekürter Kandidat ist, hat erst mal Sympathiewerte. Mit der Zeit nutzt sich das ab und er ist nur noch einer der Wahlkampf mit Parolen macht. Man denke an den letzten Wahlkamp, als es mit Schmidt so gut anfing und dann stark nachlies.

Die zweite Gefahr und die ist wesentlich konkreter ist das Scholz ein Regierungsamt inne hat. Deswegen wurde er auch gewählt. Klar einfach mal Hunderte von Milliarden als Coronahilfen zu verteilen das bringt Sympathiewerte. Abzahlen müssen es ja mal die folgenden Generationen (wenn überhaupt). Aber von nun an wird man sich bei jeder Äußerung fragen, ob Scholz dies als Finanzminister oder als Kanzlerkandidat sagt. Ich fand unter diesem Aspekt es schon wohltuend, das sich Merkel vom Amt des CDU-Parteivorsitzenden getrennt hat, denn da ist die Verwechslungsgefahr noch mehr, denn sie äußert sich ja vor allem zu allgemeinen Themen nicht nur zu Finanzen. Ebenso hätte es AKK gut getan, wenn sie nicht Verteidigungsministerin geworden wäre – zumal in diesem Ministerium bei den vielen Affären und dem Zustand der Bundesregierung schwerlich an positivem Profil gewinnen kann.

Mich würde interessieren, was in den Köpfen der SPD vorgeht. Meiner Ansicht nach muss einiges im Argen liegen, wenn die Partei meint, über ein Jahr zu brauchen, um die Wähler ovn ihrem Kanzlerkandidaten und ihrem Wahlprogramm zu überzeugen. Also ich denke nicht ein Jahr lang über die Positionen der SPD nach. Das ist nur ein Jahr lang Gelegenheit sich mit unbeabsichtigten Äußerungen es sich mit der Wählerschaft zu verscherzen „Hätte hätte Fahrradkette“. Mein Rat nicht nur für die SPS sondern auch die beiden anderen Regierungsparteien: gebt eure Kandidaten unmittelbar vor der Sommerpause 2020 statt. Dann gibt es zum einen keine Regierungsarbeit mehr für zwei Monate und es gibt nicht das Problem ob ein Kandidat als Minister oder Kanzlerkandidat redet und vor allem erreicht ihr in der Zeit sowieso die meisten. Es mögen ja einige Tausende zu Wahlkampfveranstaltungen kommen, aber die meisten Leute nehmen den Wahlkampf durch die Medien war, ob Interviews, Diskussionsrunden oder Wahlwerbespots. Und für die Nerven der Wähler und derer die die die Kampagnen organisiert wäre es auch besser. Wenn ihr ehrlich meint, ihr braucht ein halbes oder ganzes Jahr, um der Öffentlichkeit eure Positionen und Person en zu vermitteln, dann macht ihr was falsch.

Wen die CDU/CSU nominiert, ist ja offener denn je. Sah es zuerst mal nach Laschet aus, der Spahn dazu bringen konnte Stellvertreter zu sein – Merz und Röttgens, als jahrelang von der Bildfläche Verschwundene dürften kaum Chancen haben. So hat sich Laschet in Coronazeiten nicht gerade mit Ruhm bekleckert. Nein ich fange nicht von verrutschten Masken an, aber er war immer Vorreiter der Lockerung so schon Frühzeit für Möbelgeschäfte (wahnsinnig wichtig für NRW) und hat mit Tönnies nun einen handfesten Skandal im eigenen Buddelsand. Nicht nur was Corona angeht, sondern allgemein die Unterbringung und Entlohnung der Arbeiter. Auch da haben seine Behörden erst eingegriffen, als durch den Covid-19 Ausbruch das schon öffentlich diskutiert wurde. Was habt ihr die Jahre vorher gemacht? Entsprechend lasch(ed) ist auch das neue Kontrollgesetz für Fleisch verarbeitende Betriebe, eine Kontrolle im Schnitt alle 20 Jahre, huuh da bekommen die Firmeninhaber sicher Angst. Spahn hat zu spät bei der Epidemie reagiert und machte mangels Vorsorge für einen solchen Pandemiefall anfangs auch keine gute Figur, hat in der Folge aber die richtigen Maßnahmen ergriffen und die Pandemie unter Kontrolle gemacht. Das bröckelt wieder, weil man – für mich unverständlicherweise – bei einer weltweiten Pandemie, wieder Urlaub im Ausland zulässt. Die Gefahr ist ja nicht kleiner geworden, im Gegenteil weltweit steigen die Infektionszahlen weiter an. Nur Urlaub in Deutschland zu machen ist zwar eine Einschränkung, aber Massenarbeitslosigkeit, wenn es erneut, einen Lockdown wegen eine zweiten Welle gibt – und die dann wahrscheinlich nicht staatlich abgefedert, was viele Betriebe in die Insolvenz bringen wird – ist definitiv das größere Übel. Man habe nur mal in die USA schauen, denen hat Covid-109 mehr als 30 Millionen arbeitslose beschert.

Viele spekulieren, das nun Söder Kanzlerkandidat wird. An der Zeit wäre es ja: So alle 20 Jahre wird einer der CDU nominiert nach Strauß 1976 und Stoiber 2002 wäre dann Söder 2020 dran, okay etwas früh, aber zumindest, was die Sympathiewerte angeht, steht er gut da. Die Leute stimmen eher dem harten Kurs zu als dem Lockerungskurs von Laschet. Was dabei untergeht, ist das Bayern in Sachen Covid-10 gar nicht so gut dasteht. Als die Welle losging, hatte Bayern die zweitmeisten Infektionen und nun hat es die meisten. Im direkten Ländervergleich lag BW im März knapp hinter Bayern, inzwischen haben sie doppelt so viele Neuinfektionen wie wir. Dabei waren die Einschränkungen dort noch hart. In mein Ferienhaus konnte ich z.B. bis Mitte Mai nicht, obwohl ich dort alleine war. Eine derartige Einschränkung der Mobilität gab es in keinem anderen Bundesland. Aber das Ergebnis ist nicht besser als woanders. Aber vielleicht meinen die Leute ja es ist wie bei Medizin „Sie muss bitter schmecken, sonst nützt sie nichts

Was gegen Söder spricht, ist seine restliche Parteitruppe und die bundesweite Haltung der CSU. Sie bleibt eben eine Partei für Bayern. Das äußert sich in zwei Aspekten. Das eine, das politische Positionen vertreten werden, die vielleicht in Bayern gut ankommen (wobei ich denke jenseits der Stammtischgesellschaft auch nicht so) aber nicht im restlichen Deutschland. Man denke an die extrem konservative Haltung von Seehofer, mit der er wenige Monate nach Beginn der Koalition einen Krach riskierte und seine Ankerzentren die es schließlich nur in Bayern und Saarland (damals war AKK Ministerpräsidentin) gibt. Bei der vorletzten Europawahl trat die CSU sogar mit einem „Bayernplan“ an, ja bei einer Europawahl … Vor allem aber sind die Ministerien der CSU-Minister für die Selbstbedienung von Bayern da. Das Verkehrsministerium hat seit 2005 es die CSU innehat am meisten Geld nach Bayern überweisen, 2005 lagen die Aufwendungen für Bayern und NRW noch gleichauf, inzwischen sind es 70 % mehr für Bayern.

Vor allem aber disqualifizieren die bisherigen CSU-Minister Söder als Kanzler. Wenn die CSU jetzt schon Nullnummern wie Scheuer und Seehofer als Minister in einem Regierungsamt hat, wie schlimm wird das dann erst, wenn Söder Kanzler sein sollte? Wenn er heute keine qualifizierten Leute hat, welche die dem ganzen Land und nicht nur einem Bayern und der Autolobby und den Rasern sich verpflichtet führen, wie schlimm wird das dann erst unter Söder?

13.8.2020: Die Juli Nachlese von SpaceX

… fällt wie schon bei den letzten Monaten kurz aus, weshalb ich die Gelegenheit nutze, mal ein Licht auf die kommerzielle Ausrichtung von SpaceX zu werfen und wie sich das Starsip in diese Strategie einfügt.

Es gab zwei Starts im Juli, einen für Starlink, ein Zweiter beförderte einen GPS-Satelliten. Dazu kam die Landung der Crew Dragon und ein Hopser der Super Heavy. Die Landung der Dragon habe ich live in NASA TV mitbekommen und man sieht schon, wie groß da die Sehnsucht ist wieder selbst Astronauten ins All zu schicken. So die stockende und begeisterte Stimme der Sprecherin bei „Splashdown“. Nun ja, sofern im Golf von Mexiko keine andere Physik als wie bei uns gilt, fand ich das jetzt nicht so besonders – wie man in der Luftfahrt so sagt „runter kommen sie immer“. Und wenn die Kapsel druckdicht ist, was man annehmen kann, wenn die Astronauten noch leben, dann ist sie auch wasserdicht, dürfte also nicht untergehen. Der letzte kritische Zeitpunkt war für mich kurz vorher, wo die Fallschirme entfaltet wurden, denn da gab es ja im Testprogramm Rückschläge.

Dann hat die erste Stufe des Starships einen Hopser gemacht. Wie von Musk gewohnt war das ein kleiner Schritt für das Starship aber ein großer für Musk „Mars is looking real“. Finde ich etwas übertrieben, zumal ja nicht mal die 150 m Höhe erreicht wurden die angekündigt wurden. Vor allem ist die Landung der ersten Stufe nun nicht etwas völlig Neues. Stufen landet SpaceX seit Jahren und nach Rückschlägen haben sie das inzwischen auch im Griff, warum sollte es also beim Starship anders sein? Trotzdem kann man davon ausgehen, dass der Test nicht so ablief wie geplant. Der verlinkte Artikel erwähnt, dass Teile wegflogen und das Triebwerk bei der Landung in Feuer gehüllt war. Auch die nicht erreichte Höhe spricht dafür. Was mir auffiel, ist das das Vehikel vom Start weg sich zur Seite schwenkt und so nicht viel Höhe gewinnt, aber zur Seite fliegt. Die ersten Falcon 9 Landeversuche verliefen dagegen rein vertikal, so wie sie später auch landete und ich denke auch die Superheavy wird senkrecht landen, zumindest wenn sie sich zur Seite bewegt, nicht sofort nach dem Abheben. Meiner Ansicht nach die Seitwärtsbewegung man das realisiert und die Rakete wieder landen lassen und so auch die 150 m Höhe nicht erreicht. Aber wie schon gesagt, das ist nicht das Wesentliche. Die Herausforderung wird es sein, das Starship zu landen und das unter der Nebenbedingung, das es noch wirtschaftlich sein muss. Dazu komme ich noch.

Ich will mich heute damit beschäftigen, wie gut SpaceX sich auf den Markt ausrichtet. Es kann sein, das dies völlig egal ist, und alle bisherigen Aufträge nur dazu dienten Geld einzubringen, um letztendlich nur mit eigenen Produkten Geld zu verdienen – sprich man baut die Starlink Satelliten selber, startet sie selber und hat die gesamten Einnahmen aus dem Netz. Nur denke ich das nicht, denn die Satelliten wurden ja erst konzipiert als OneWeb schon sein Netz vorgestellt hatte und Investoren gewann. Erst da sprang SpaceX auf den fahrenden Zug auf.

Als SpaceX mit der Falcon 9 begann – die Falcon 1 als Erprobungsexemplar lasse ich mal außen vor – gab es für ein US-Unternehmen zwei Märkte:

Der kommerzielle Markt (auf dem sich viele Firmen um Aufträge bewerben) bestand damals vor allem aus den Starts in den GTO mit Nutzlasten zwilchen 3,6 und 6,5 t Gewicht, das Groß der Massen lag bei etwa 4,5 bis 5,5 t. Das hat sich seitdem auch kaum geändert.

Der US-Regierungsmarkt ist nur US-Unternehmen zugänglich, aber der profitablere, denn die Konkurrenz ist kleiner, die Preise pro Start höher und vor allem muss man nicht sich um jeden Auftrag einzeln bewerben. Er gliedert sich wiederum in zwei Teile: Starts seitens der NASA und NOAA (öffentlich) und seitens des DoD und der NRO (geheim). Die Anforderungen der NASA sind einfacher zu erfüllen. Ihre Nutzlasten sind kleiner und gelangen entweder in den LEO (SSO), GTO oder auf Fluchtbahnen. Wenn man einige Starts besonders schwerer Nutzlasten ausklammert, dann kommt die NASA mit der kleinsten Version der Atlas V, der 401 aus.

Der Markt für geheime Nutzlasten ist schwerer zu erobern. Zum einen sind die Nutzlasten meist schwerer. Zum anderen gibt es Extreme. Sehr schwere Nutzlasten in den LEO wie Aufklärungssatelliten zum andern haben militärische Nutzlasten meist keinen Apogäumsantrieb, müssen also direkt in den GEO gebracht werden.

Hat man aber zu dem Markt Zutritt, so ist er extrem lukrativ. Musk bemerkte ja schon vor Jahren, dass die Starts von ULA „insane expensive“ seien. Daneben bucht das Militär, weil eine der Aufgaben natürlich die nationale Sicherheit ist, nicht einen Start, sondern viele über mehrere Jahre, man will schließlich die Garantie haben, dass die Nutzlast dann auch gestartet wird. Dieses Block-Buy wurde von SpaceX kritisiert, als sie selbst noch keine Aufträge aus dem System bekamen , inzwischen profitieren sie davon. Gerade wurde bekannt, das ULA und SpaceX für die nächsten 5 Jahre alle Starts durchführen, die der Geheimhaltung unterliegen. Das ist nicht unumstritten, weil die USAF erst letzten Jahr Förderaufträge an Blue Origin/Grumman ATK gab und nun nicht abwartet bis deren Raketen auch einsatzbereit sind, sondern wieder die beiden Firmen fördert die jetzt schon Starts durchführen. Und profitabel ist. Das der erste Auftrag aus dem Los hat für SpaceX einen Umfang von 317 Millionen Dollar, mehr als dreimal so teuer wie eine Falcon heavy nach Website ist. ULA bekam zeitgleich für zwei Starts dagegen 333 Millionen Dollar, damit ist inzwischen SpaceX teurer als ULA.

Damit SpaceX hier mitmischen kann, benötigten sie eine Rakete, die auch den Anforderungen genügt, das heißt in den GEO mindestens die Nutzlast eines mittleren Atlas V Modells hat und für einen SSO etwa 20 t Nutzlast. Wie passt das zu SpaceX Entwicklungsstrategie?

Die erste Version der Falcon 9 hatte eine Nutzlast von etwa 7 bis 8 t in den LEO und etwa 3 t in den GTO. Auf den Wert kam nicht nur ich, sondern auch das Institut SA/RT der DLR. (im damaligen Users Guide wurden 10,45 / 4,5 t genannt, aber das mit einer nie gebauten „Block II“ Konfiguration mit 556 kN Merlins). Für GTO Starts war sie zu klein und selbst für das hauseigene Dragon war sie zu klein. Im Schnitt beförderte es nur 800 kg Nutzlast zur ISS – mittlerweile sind es um die 2,6 t im Schnitt.

So folgte die nächste Falcon – SpaceX unterschiedet noch mehr Konfigurationen, doch anhand der Startmasse gab es seitdem zwei Major Änderungen. Sie erreicht die Nutzlast für den GTO, die kommerzielle Satelliten erfordern, auch die meisten NASA-Nutzlasten kommen mit ihr aus und natürlich kann nun auch das Dragon die volle Nutzlast ausnutzen.

Die Falcon 9 reicht aus für einige Starts geheimer Nutzlasten, so die GPS-Satelliten, die als Ausnahme einen eigenen Antrieb haben. Aber nicht für die anspruchsvolleren Aufträge. Knackpunkt ist der GEO-Orbit. Will eine Falcon 9 diesen direkt erreichen, so muss sie nach rund 5 Stunden Freiflugzeit erneut zünden und natürlich gelangt auch die Oberstufe in den Orbit. Als zweistufige Rakete mit nur mittelenergetischen Treibstoffen dürfte die Oberstufe nach meiner Einschätzung leer 5 t wiegen – Zubrin geht sogar von 10 t aus, doch dann wäre die Nutzlast negativ – im Gegensatz dazu wiegt eine Centaur nur 2 t. Für den GEO-Orbit dürfte die Nutzlast einer Falcon 9 daher auf rund 3 t sinken und das ist zu wenig. Selbst die kleinste Atlas V, 401 kommt auf 3,4 t.

Nur für diese Missionen benötigt SpaceX die Falcon Heavy und dieser Markt dürfte auch der Hauptgrund sein, warum man deren Entwicklung nicht einstellte. Mit Ausnahme von zwei kommerziellen Starts sind daher auch alle Aufträge für die Falcon heavy daher von der US-Regierung. Nicht das es keine andere Lösung gegeben hätte – eine weitere Oberstufe von etwa 20 t Gewicht und die Falcon 9 hätte auch für das Militär ausgereicht und die Nutzlast für schwerere NASA-Raumsonden gehabt.

Das Starship

Nun kommt das Starship und ich frage mich, wie fügt sich dies in dieses Bild ein. Meine Antwort – gar nicht. Ich blende mal aus, das offen ist, ob das Starship die geplante Nutzlast (100+ t in den LEO, 20 t in den GTO) erreicht. Dafür müsste SpaceX die Trockenmasse des ersten Starships das einen Orbit erreicht, um rund 40 % erniedrigen, ein Ziel, das im Raketenbau bisher niemand erreicht hat. Aber es gibt nirgendwo den Bedarf für einen solchen Träger. Am ehesten sind noch GTO-Starts mit drei Satelliten denkbar. Doch schon Doppelstarts sind problematisch. Bei Ariane 6 hat man ernsthaft darüber nachgedacht, den Träger kleiner zu bauen und dafür nur noch Einzelstarts durchzuführen. Denn man muss zeitgleich beide Satelliten angeliefert bekommen, die noch dazu die richtige Größe und Masse haben müssen. Bei nur fünf bis sieben Starts pro Jahr durchaus ein Problem.

Noch bedeutender: NASA und USAF sind konservativ. Es hat Jahre gedauert bis SpaceX den heutigen Status erreicht hat: ULA und SpaceX bekommen für mehrere Jahre alle USAF-Starts. Blue Orion und Grumman/ATK gehen leer aus. Jahre, in denen ihre Raketen erst zertifiziert werden mussten. Musk hat darüber geklagt und sogar angefangen gegen die seiner Ansicht nach schleppende Zertifizierung zu klagen (bekam dann einen Auftrag, damit SpaceX die Klage zurückzieht). Beim Starship fängt die gesamte Zulassung alles von neuem an. Ebenfalls bedeutend:; alle Startaufträge seitens US-Organisationen bis zum Jahr 2025 setzen auf die beiden Falcons. Einfach ausmustern und durch das Starship ersetzen geht also nicht. Und diesen Kunden will man nicht vergraulen. Da die Aufträge seitens der NASA öffentlich sind, kann man leicht ausrechnen das bisher rund 70 bis 80 % aller Mittel die SpaceX verdient hat, von der US-Regierung kommen.

Was als Aufgabe für das Starship bleibt, ist dann im Prinzip der Aufbau des Starlink Netzes. Über dessen Erfolgschancen habe ich ja schon vor einem Monat geschrieben. Ich denke das auch SpaceX eben, weil es kein existierendes Vorbild gibt, nicht weiß, ob es die Cash-Cow wird oder nicht. Für die enorme Zahl an Satelliten, die uin der zweiten Aufbauphase geplant sind – 32.000 wird man aber das Starship brauchen. Die Nutzlast in den LEO ist etwa fünfmal so hoch wie bei einer Falcon 9, die transportiert 60 Satelliten pro Start. Ein Starship dann 300, trotzdem bräuchte man immer noch 110 Starts, bei monatlichen Starts, wie bisher demonstriert, also fast 10 Jahre um das Netz aufzubauen, bzw. zu erhalten denn nach 10 Jahren dürften die ersten Satelliten dann am Ende ihrer Lebensdauer sein. Klappt das mit Starlink nicht – und das wird sich bald zeigen, derzeit sind 592 Satelliten im Orbit, ab 1.000 will SpaceX erste Dienste anbieten – dann prognostiziere ich, ist auch das Starship tot.

Denn für alle anderen Zwecke die Musk so verbreitet – 100 Siedler pro Flug zum Mars bringen, auf dem Mond für die NASA landen oder Milliardäre um eine Mondumrundung zu schicken, ist das Vehikel es zu schwer. Da es gleichzeitig zweite Stufe ist und den Weidereintritt überleben soll wiegt es nach (Musk-Wunschvorstellungen) 120 t. Das erklärt schon den rapiden Nutzlastabbau in den GTO um den Faktor 5 – bei der Falcon 9 ist es nur Faktor 2,7), denn die 120 t vom Starship bleiben konstant. Wer einen Taschenrechner bemüht, wird leicht erkennen, das selbst ohne Nutzlast ein Starship nicht die Erdumlaufbahn verlassen kann. Für eine Mondumrundung benötigt man eine Auftankung, für GEO-Missionen zwei Auftankungen, für eine Marsexpedition mit 100 t Nutzlast mindestens vier Auftankungen und für den Starship-Mondlander für die NASA sogar 10 bis 11.

Und die Startkosten? Man kann sie abschätzen. Ich fange mal mit der Wiederverwendung an. Die wird ja bei der ersten Stufe schon praktiziert. Inzwischen bei der Nutzlasthülle erprobt. Es bleibt noch die Oberstufe übrig, die bei der Falcon 9 für etwa 20 bis 25 % der Kosten steht. Da die Wiederverwendung schon die silberigen Flüge nur von 62 auf 50 Millionen Dollar verbilligte, also ein Fünftel, wird die Oberstufe nicht mehr viel mehr bringen. Man mag argumentieren das SpaceX nun viel mehr an der Rakete verdient, aber die Bergung und Wiederaufarbeitung/Inspektion verursacht auch Kosten und bei anderen LSP gehen ein Viertel bis ein Drittel des Startpreises nur auf die Startdurchführung und damit verbundene Kosten wie Aufwandsentschädigungen für die Nutzung von NASA / USAF Eigentum, Miete, Abschreibung der selbst gebauten Gebäude, deren Betriebskosten ….Die bleiben aber konstant und machen bei Wiederverwendung dann eher mehr am Startpreis aus.

Ich glaube nicht, das eine komplette Wiederverwendung unter dem Aspekt mehr als die Hälfte des Startpreises hereinbringt und verglichen zu ¾ Wiederverwendung wie bisher sind es eben dann noch 10 % günstiger, als die Oberstufe nicht zu bergen. Dafür dürfte dies aber viel Nutzlast kosten. Schon bei einer Falcon ist die Nutzlastabnahme durch Bergung ja deutlich.

Aber das Gespann aus SuperHeavy / Starship wiegt 5000 t, zehnmal mehr als eine Falcon 9 (bei nur fünffacher Nutzlast), dreimal mehr als ein Falcon Heavy (bei nur 50 % mehr Nutzlast). Eine größere Rakete ist auch teurer. Nicht linear – die Gewichtszunahme beim Übergang Falcon 9 → Falcon Heavy betrug 2,7, die Preiszunahme nur 1,8. Aber sie wird definitiv teurer als eine Flacon 9 oder Falcon Heavy sein und da machte die Einsparung durch Wiederverwendung nicht viel wett, zumal wie erwähnt auch die Nutzlast vergleichen mit der Startmasse klein ist. Der Kunde zahlt aber immer einen ganzen Start, auch wenn er keine 100 t transportiert.

Wie schon bisher – nicht auf die Marktanforderungen ausgerichtet. Mal sehen, ob man nachbessert wie bei der Falcon 9 oder es nur für eigene Starts einsetzt oder eben einstellt.

Ich persönlich sehe ich das Starship/Superheavy Projekt, als eines an das SpaceX wieder einstellen wird oder wenn es kommt, es nicht der Erfolg ist. Wäre ja nicht das erste Mal bei SpaceX. Man erinnere sich an Falcon 1e, Falcon 5, Red Dragon, Grey Dragon, Beteiligung bei Stratolaunch ….

14.8.2020:Die Lösung für ein überflüssiges Problem – das Kühlen durch Verdunstungskälte

Bei der Hitze setze ich abends immer, wenn ich auf dem Sofa liege, eine Spitzflasche ein, das ist eine ehemalige Glasreiniger-PVC Flasche mit Wasser gefüllt. Der feine Wassersprühnebel legt sich auf die Haut und kühlt, ist aber beim ersten Kontakt doch unangenehm kalt und die Feuchte mag auch nicht jeder. Nun gibt es Klimaanlagen, die auf dem Prinzip der Verdunstungskälte setzen, ich wollte aber mal feststellen, ob es mit der Methode auch möglich ist „händisch“ einen ganzen Raum abzukühlen.

Spezifische Wärmekapazität

Wird einem Material, egal ob fester Körper, Flüssigkeit oder Gas Energie zugeführt so wird, es wärmer. Um wie viel das hängt von Stoffeigenschaften ab und für jeden Körper gibt es eine spezifische Wärmekapazität, die aussagt, wie viel Energie in Joule man zuführen muss, um 1 Kilogramm des Stoffs um 1 Grad Celsius zu erwärmen. Für Luft beträgt diese 1,005 J / kg / K, für flüssiges Wasser 4,184 J / kg / K.

Das Phänomen nutzt man auch in Kaloriemetern, um die Energiemenge von Nahrung festzustellen, indem man sie verbrennt, und misst um, wie viel sich die Wasserhülle um den Brennraum erwärmt. Der krumme Wert von Wasser ist daher auch der Umrechnungsfaktor der berüchtigten Kalorie (1 Kalorie = 4,184 Joule).

Verdampfungsenthalpie

Geht ein Stoff vom flüssigen in den gasförmigen zustand über, so müssen die Bindungen die zwischen den Molekülen aufgelöst werden, den in Gasen ist jedes Molekül einzeln unterwegs. Dafür benötigt man viel Energie. Wasser hat sehr starke Bindungen zwischen den Molekülen, sogenannte Wasserstoffbrückenbindungen. Sie sind auch für die Wasserspannung verantwortlich: auf der Wasseroberfläche können kleine Tiere wie Insekten und Spinnen aber auch einige Eidechsen gehen. Die Energie, die ein Stoff benötigt um vom flüssigen in den gasförmigen Zustand überzugehen nennt, man Verdampfungsenthalpie und sie beträgt beim Wasser 2.260 J/kg / K. (nahe verwandt aber nicht dasselbe ist die Verdampfungswärme, sie ist etwas geringer, weil sie nicht die Arbeit berücksichtigt die entsteht, wenn durch das Gas sich der Druck ändert). Sie ist also in etwa um den Faktor 500 größer als die Energie, die man braucht, um Wasser um 1 Grad zu erwärmen. Daraus folgt: man benötigt weitaus weniger Energie um das Wasser von Raumtemperatur auf fast 100°C zu erwärmen als es bei 100°C zu verdampfen. Konkret braucht man um von 25 Grad Celsius Wasser zu verdampfen 2.444 J/kg, bei 99 Grad Celsius aber immer noch 2.260 J/kg.

Energiebilanz

Nach dem Energieerhaltungssatz geht keine Energie verloren. Wäre unser Raum also ideal, das heißt ohne Stoffaustausch mit der Außenwelt und ideal gedämmt, sodass auch die Wände keine Energie aufnehmen, dann würde die Wärme, die man braucht, um Wasser zu verdampfen aus der Luft genommen werden, die dadurch abgekühlt wird.

Damit kann man eine Rechnung anstellen.

1 m³ Luft wiegt bei Normalbedingungen 1,25 kg. Die Luft in einem 30 m² großen Wohnzimmer mit einer Deckenhöhe von 2,50 m (67,5 m³) also 84,4 kg. Will man diese um 10 Grad abkühlen, z.B. von 30 auf 20 Grad so muss ihr eine Energie von

E = 1,005 J / kg / K * 84,4 kg * 10 K = 848,2 J entzogen werden.

1 l Wasser von 25 Grad benötigt 2444 J/kg, um zu verdampfen, das heißt es reichen:

M = 848,2 J / 2444 J/kg = 0,347 kg

Das wäre bei fleißigem Einsatz der Spritzpistole also zu schaffen.

Luftfeuchtigkeit

Das Wasser geht ja nicht verloren. Es steigert die Luftfeuchtigkeit, allerdings nur bis diese 100 % erreicht, dann ist die Luft maximal mit Wasserdampf gesättigt und sei nimmt keine weitere Feuchtigkeit auf, kühlt sie aus anderen Ursachen ab (z.B. weil es nachts kühler wird) so sinkt die Wassermenge, die sie aufnehmen kann und die Luftfeuchtigkeit kondensiert aus. Ein Phänomen, das wegen der entstehenden Feuchtigkeit nicht gewünscht ist und dann zu Schimmelbildung an den betroffenen Stellen führen kann.

Maximal sollte man also die Sättigung von 100 % bei niedriger Temperatur erreichen, ich habe mal 15 Grad angenommen, als Nachttemperatur einer Sommernacht, liegt die Nachttemperatur wesentlich tiefer dann ist es tagsüber meist auch nicht so heiß das man kühlen muss. In den letzten heißen Tagen zeigte meine Wetterstation immer 40 bis 50 % Luftfeuchtigkeit an, nehme ich 50 % als höheren Wert, so kann ich maximal 50 % der Sättigungsmenge aufnahmen. Die Sättigungsmenge beträgt etwa 13 g/m³ (der Zusammenhang ist nicht linear, man muss den Wert einem Diagramm entnehmen). 50 % davon sind also 6,5 g, ich rechne mit 6 g/m³ um etwas Sicherheitsspielraum zu haben. Bei 67,5 m³ sind es also:

M = 67,5 m³ * 6 g/m³ = 405 g, also leicht oberhalb der Wassermenge, die man durch Verdunstung zuführt. Natürlich hat man dann auch ein Raumklima mit fast 100 % Luftfeuchtigkeit, was auch nicht so angenehm ist. Aber das wäre auch ein Extrembeispiel, denn wenn es draußen tatsächlich 15 Grad hätte, dann würde man einfach das Fenster öffnen und die kalte Luft (mit niedriger Luftfeuchtigkeit) von außen reinlassen. In der Praxis wird man also diese hohe Luftfeuchtigkeit nicht erreichen und bei 20 Grad sind es beim obigen Beispiel nur noch 30 % Luftfeuchtigkeit, die so hinzukommen, also von 40 bis 50 % auf 70 bis 80 %, was in etwa die Bedingungen sind, die in einem Badezimmer herrschen und das ist doch erträglich.

 

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99