Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 609: 31.1.2021 - 6.2.2021

31.2.2021: Was im Bestand hat: Codebasen

Der letzte Artikel über Veränderungen im PC brachte mich recht schnell auf die gegenteilige Frage: was hat den Bestand oder besser gesagt, was hat am längsten Bestand? Nun die Hardware veraltet. Sie wird (in der Regel) immer leistungsfähiger oder eben nicht und stirbt dann aus wie Floppylaufwerke oder CD-ROMs, zumindest muss sie sich aber anpassen. Jeder, der mal sich Gedanken gemacht hat, wie er Dateien auf einer 5,25-Zoll-Floppy in einen heutigen PC zu bekommen weiß das. Als eingebautes Laufwerk ist es schon seit den Neunzigern nicht mehr dabei. Als externes Laufwerk gibt es ein 5,25-Zöller heute nicht mehr zu kaufen. Selbst wenn man ein altes Laufwerk noch hat, fehlt der Floppykontroller mit seinem 40-poligen Flachbandkabel um es anzuschließen. Ähnliches gilt für vieles. Seien es ISA Karten (der Bus wurde 1993 durch PCI ersetzt) oder digitale Monitor mit ihren Anschlüssen (heute sind Monitore auch wieder digital, aber haben HDMI, DVI oder Displayportstecker anstatt der alten sechspoligen Rundstecker.

Doch es gibt etwas was relativ beständig ist, das sind Codebasen. Eine Codebasis ist der Befehlsart eines bestimmten Prozessors oder weitergehend ein Programm, das definierte Schnittstellen nutzt, z.B. für die Ein-/Ausgabe.

Beim PC, worunter ich die Intel x86/IA64 Architektur verstehe, gab es drei wesentliche Codebasen:

Die Basis bildete der 16 Bit Code eingeführt mit dem Intel 8086. Ursprünglich war der 8086 als Lückenbüßer gedacht. Nach dem 8080 wollte Intel die 16 Bit Generation komplett überspringen und gleich zu einem 32-Bit-Design gehen. Doch das verzögerte sich, und als 1976 die ersten 16 Bit Prozessoren wie der TMS 9900 erschienen, entschloss man sich für eine Zwischenlösung, um die Kunden nicht zu verlieren. Das Design des 8086 wurde schnell entworfen mit einer maximalen Kompatibilität zum Vorgänger 8080. So hatte er dieselbe Zahl an allgemeinen Registern, konnte diese wie der 8080 auch getrennt als 8-Bit-Register nutzen und der Befehlssatz hatte den 8080 Befehlssatz als Teilmenge. So konnte ein Programm 80080 Assemblercode in 8086 Code umschreiben, wenngleich er nicht binärcodekompatibel war.

Intel hatte aber eine sehr befremdliche Ansprechweise des Arbeitsspeichers eingeführt. Alle Register waren 16 Bit breit, doch damit gab es nicht mehr Arbeitsspeicher als ein 8 Bitter, der zwei Register von 8 Bit für Adresszugriffe zu einem 16-Bit-Register zusammenfassen konnte. Intels Lösung waren vier Segmentregister, deren Inhalt zum Adressregister mit 16 multipliziert wurde. So konnte man die vier Register wie Fenster innerhalb eines 1 MByte großen Adressraums verschieben.

Das erste Binärformat für MS-DOS war das von CP/M übernommene .COM Format. Das unterstützte es nicht die Segmente zu verschieben, weshalb Code und Daten auf 64 KByte beschränkt waren, bei der allerersten Subvariante sogar auf nur zusammen 64 KByte. Beim allerersten IBM PC und MS-DOS 1 war so jeder speicher über 128 KByte Verschwendung denn Programme nutzen so nicht mehr. Später kam mit MS-DOS 2 das .EXE Format mit verschiebbaren Fenstern. Die Größenbeschränkung auf 64 KByte blieb aber. Genauer gesagt: Jedes Unterprogramm konnte maximal 64 KByte Code, 64 KByte Daten und 64 KByte Stack (benötigt für Transfers von Daten) haben. Bei Code kein Problem, denn man entwickelt normalerweise sehr viele Unterprogramme und keines ist 64 KByte groß. Aber die Einschränkung bei den Daten war gravierend. So dürften die globalen Daten, also alle Daten, auf die man immer zugreifen, kann auch maximal 64 KByte groß sein. Mancher erinnert sich vielleicht noch an Notepad und Write als Windows Editoren – die konnten maximal 64 KByte große Texte bearbeiten. Bilder sind auch schnell größer als 64 KByte. Natürlich geht das Arbeiten mit größeren Daten – aber nicht mit der Hochsprache, da muss der Programmierer selbst mit den Segmentregistern hantieren und die manuell in Assembler verschieben.

Die Lösung war wirklich besch... eine kleine Ersparnis beim Chipdesign die über ein Jahrzehnt Programmierern das Leben schwer machte. Denn Motorola zeigte wie es auch anders geht: Der MC 68000 war schon 32 bittig angelegt, auch die internen Register waren 32 Bit breit. Aber es wurden nur 15 Bit für den Datenbus und 24 Bit für den Adressbus herausgeführt, also ein Teil der Register nicht benutzt. Als es den Nachfolger MC 68020 gab, verdaute der aber so die Software des Vorgängers und hatte mehr adressierbaren Arbeitsspeicher.

Intel versuchte, mit dem 80286 mit Motorola gleich zu ziehen. Er erschien 1982. Auch er hatte nun einen 24-Bit-Adressraum, aber nach wie vor 16 Bit breite Register. Zudem hatte er Möglichkeiten Programme abzubrechen und Fehler abzufangen. So ein Feature ist wichtig für das Betriebssystem, dass so nicht mit sich aufhängt wenn ein Programm abstürzt, wie das bei DOS der Fall war. Das erforderte aber einen speziellen Betriebsmodus im Prozessor um diese Features zu aktiveren. Es sollte ja – der Fluch der Kompatibilität die alte Software noch weiter laufen. Den Riesenfehler den Intel machte, war das man vom 8086-Modus, der dann bald den Namen „Realmodus“ bekam zwar in den 80286 Modus „Protected Mode“ wechseln konnte, aber nicht mehr zurück. Nun muss jede Software aber erst mal entwickelt werden, auch das Betriebssystem selbst. Die Tools dafür insbesondere der Debugger mit dem Fehler erkennen konnte gab es aber alle im Realmodus und das hielt die Entwicklung für Software für den Protected Mode auf. Bill Gates plädierte bei der Zusammenarbeit mit IBM daher darauf, ihn komplett zu überspringen. Die ersten Windows Versionen 1+2 waren so komplett im Real Mode erstellt worden. Ab Windows 3 gab es immer mehr Teile, die im Protected Mode liefen.

Mit dem 80386, der 1985 erschien, hatte Intel das Problem gelöst. Man kam nun aus dem Protected Mode zurück in den Real Mode und es gab sogar einen abgesicherten Realmode, in dem der Prozessor mehrere DOS-Programme parallel ausführen konnte und diese voneinander und vom Betriebssystem isoliert „virtueller 8086 Modus genannt“. Diese Features bedeuteten für Windows 3 den kommerziellen Durchbruch. Bedeutender war die neue Codebasis in der Intel die Breite der Register auf 32 Bit verbreiterte, 32 Bit Code oder IA32 (IA für Industrial Architecture) genannt. Wie langlebig Codebasen waren, zeigt dieser Prozessor. Der 80386 erschien 1985. Windows 3.1 hatte erstmalig einige Codebestandteile im 32-Bit-Code. Für Windows 3.11 gab es das Win32S Subsystem, das 32 Bit Code des 80386, 80485 Pentium … auch von Windows Programmen ausführen konnte als Option. Microsoft entwickelte zwar Windows NT(New Technology) ab 1993 als reines 32-Bit-Betriebssystem, aber das war eben inkompatibel zum 16 bittigen Windows 1 bis 3.11.

Windows 95 sollte auch den Windows 3.x Zweig auf 32 Bit heben, aber wie Tests schnell zeigten, waren viele Treiber noch 16 bittig, was besonders Intel verdrießte, denn ihr brandneuer Pentiumprozessor war auf 32 Bit Code optimiert worden und brach beim bisherigen 16 Bit Code in der Performance ein, war dann nicht schneller als ein viel billiger 486-er.

Erst Windows XP war durchgängig 32 bittig, das Win-16 Subsystem für alte Windows Programme gab es aber immer noch. Es ist sogar bis heute noch vorhanden, allerdings nur in den 32 Bit Versionen von Windows.

Ziemlich lange lies sich Intel mit der Einführung eines 64 Bit Codes Zeit. Andere Firmen präsentierten schon ein Jahrzehnt vor Intel 64 Bit Prozessoren, so Digital Equipment den Alpha Prozessor. Intels eigene Lösung war zudem relativ umständlich und brach mit den Konventionen, die es bisher gab. AMD hatte eine bessere Idee und nutzte einfach einige unbelegte Opcodes aus um die Befehle im 64-Bit-Modus zu definieren. Das Registermodell orientierte sich auch am bisherigen. AMD hatte damit von Anfang an Erfolg und Intel übernahm schließlich die AMD-Lösung als IA64 Architektur. Intel lies sich wahrscheinlich deswegen so viel Zeit mit der Einführung von 64 Bit Code, weil in der Praxis 64 Bit Code nicht schneller läuft und der Hauptvorteil, der ist, das er mehr als die 4 GB Arbeitsspeicher ansprechen kann. So erschien Intels Lösung erst 2005, die AMD-Lösung 2006. Erst bei Windows 7 das 2009 erschien überflügelten die Verkäufe der 64 Bit Editionen die der 32 Bit Editionen. Für die Programmierung ist die 32 Bit Version nach wie vor von Bedeutung. Solange ein Programm nicht mehr als 4 GB Speicher benötigt, das dürfte nur bei Programmen vorkommen, an denen wirklich viele mitarbeiten, bietet der 64 Bit Modus keinen Vorteil, nur sind die Programme doppelt so groß. Selbst Microsoft rät dazu, die 32 Bit Variante von Office zu installieren. Die Einschränkung gilt nicht für das Betriebssystem, das sollte 64 bittig sein, weil sonst auch das Betriebssystem nur maximal 4 GB Speicher ansprechen kann und die meisten neuen PC haben mehr Speicher. Jedes 32-Bit-Programm kann aber selbst 4 GB haben. Das 32 Bit Subystem ist auch Bestandteil der 64 Bit Edition von Windows, aber nur die 32 Bit Version von Windows enthält noch das 16-Bit-Subsystem für Windows bis 3.1 und DOS.

Bei geeigneter Windows Version laufen auch heute so noch DOS-Programme von 1981. Na ja zumindest theoretisch, denn sie stolpern dann über ander Veränderungen z.B. beim Dateisystem.

Noch besser brachte es Apple hin. Der erste Macintosh von 1984 basierte auf dem MC 68000 Prozessor, der dann auch weiter verbaut wurde, bis Motorola diese Linie beendete. Apple wechselte 1994 auf den Nachfolger PowerPC. Die Programme – im Binärcode liefen jedoch weiter, denn ein Emulator setzte diese in PowerPC Befehle um. Im Jahre 2005 wechselte Apple auf die Intel Prozessoren nachdem diese den PowerPC in der Performance überholten, erneut übersetzte ein Emulator den Binärcode auf die IA64 Architektur. Seit diesem Jahr bringt Apple neue Macintosh auf Basis der ARM Architektur heraus und erneut laufen alte Programme in einer Emulation weiter. Intel hat es also fertiggebracht vier verschiedene Prozessoren einzusetzen, ohne dass der Code neu übersetzt werden müsste. Bei einer konsistenten API, also definierten Befehlsaufrufen, die man zwar erweitert aber nicht ändert, reicht das Neukompilieren auch aus, um lauffähigen Code für den neuen Prozessor zu erzuegen. Das klappt aber auch allgemein. Computer gibt es ja schon lange. In vielen Bereichen entstanden Programme und Bibliotheken mit grundlegenden Algorithmen schon früh, in damals populären Programmiersprachen. In der Wirtschaft war dies COBOL, in der Wissenschaft und Technik FORTRAN. Nun große Überraschung – diese Programme sind bis heute im Einsatz, erweitert und gegebenenfalls neu übersetzt. Einen Vorgeschmack bekam die allgemeine Öffentlichkeit, als im Jahr 2000 der Y2K-Bug aktuell wurde: Cobol speichert Zahlen nicht binär sondern als Dezimalziffern ab. 99 belegt so zwei Bytes, je eines ür jede Ziffer. Also sparten sich Programmierer früher die „19“ bei der Jahreszahl ein, denn Speicher war knapp. So würde, aber ohne Änderung beim Jahr 2000 die Jahreszahl von "1999" auf "1900" springen … (Die „99“ ist gespeichert, die „19“ wird durch das Programm vorher ausgegeben).

Bis heute sind Programme in diesen Programmiersprachen aktiv, nur eben erweitert. Sie speichern z.B. ihre Daten in Dateien ab und Programme in neueren Sprachen lesen diese aus und erzeugen daraus Grafiken oder bauen Webseiten. Als CGI-Interface ist dies sogar genormt. Wer irgendetwas in einer Webseite eingibt, wird feststellen das daraus ein ganz langer String erzeugt wird er meist nach einem Fragezeichen an die Webadresse angehängt wird. Der Webserver trennt den String ab und übergibt ihn als „Tastatureingabe“ an ein Programm, das überhaupt nichts vom Web selbst wissen muss und die Ausgabe dieses Programms, ebenfalls als Text wird dann erneut verarbeitet. Berüchtigt sind in dem Zusammenhang die „Buffer Overflows“ - die Programmiersprache C prüft von sich aus nicht, ob der Platz im Speicher für einen Eingabestring ausreicht, um diesen auch aufzunehmen. Das muss der Programmierer machen. Tut er es nicht, dann überschreibt der zu lange String Code des Programms. Das kann man ausnutzen, um in Form von Strings Code in ein Programm einzuschleusen und somit ausführen kann. So was geht nur bei C und wird von Freunden der Programmiersprache als ein Feature und kein Fehler verstanden – ich nehme an, für die sind Fahrräder ohne Bremsen und Lenker auch nur Fahrräder mit Features …

Mit dem System können viele Sprachen weiter betrieben werden, auch wenn nur noch enige neue Programme darin entstehen. In einer Webanwendung kann Javascript auf dem Rechner des Besuchers ausgeführt werden, auf dem Server läuft dagegen PHP oder Java, welche die Webseiten bauen und Datenbanken abfragen, die Datenbanksysteme selbst können in Cobol erstellt worden sein.

1.2.2021: Die Februarnachlese zu SpaceX

Da das Jahr noch jung ist, habe ich mir mal die Mühe gemacht, in den letzten Jahren die Ankündigungen der Starts für nächstes Jahr seitens Musk / Shotwell und die erfolgten Starts gegenüberzusetzen. Das war nicht leicht, weil Google einem selbst mit einer Jahreszahl in der Suche einem immer zeitnahe Ergebnisse als erste Suchergebnisse präsentiert. Wie man die Suche auf einen bestimmten Veröffentlichkeitszeitraum eingrenzen kann, habe ich leider noch nicht rausgefunden (in der erweiterten Suche geht das leider nur bis zu 1 Jahr als feste Einstellung).

Jahr

Geplant

erfolgt

Prozentsatz

2015

12-16

7

44 – 58 %

2016

20

8

40 %

2017

27

18

67 %

2018

30-40

21

52 - 70 %

2019

24- 25

13

52 - 54 %

2020

24 Starlink

26, davon 14 Starlink

58 %

2021

40 - 48


Mittel: 56 %

Im Mittel hat SpaceX nur etwa die Hälfte des Plans geschafft, als sie keine Fehlstarts hatten, als sie Nutzlaststau hatten, reichte es für zwei Drittel. Das Interessante dabei ist, dass sich die Differenz zu den Plänen so um etwas über 50 % einpendelt. Ich habe mal verseucht eine Regessionsanalyse zu machen und kam auf:

Y = a + b*x

Gleichung:

Y = 50,119 + 1,288*x

mit A:

50,118644

mit B:

1,288136

Allerdings mit einem recht niedigen Korrelationskoeffizienten, es ist ja auch keine Datenbasis mit einem gemeinsamen Zusammenhang. Immerhin, wäre dieser da, so würde man dieses Jahr 59 % der geplanten Starts, mithin 24 bis 28 absolvieren. Das ist aber keine Wette von mir, da ich selbst denke das es mehr sein werden, aber keine 40 oder gar 48. 30 bis 32 wäre mein Tipp.

Hauptthema für heute ist es, für die Firma nach Verwendungsmöglichkeiten für ihr Starship zu suchen. Die Firma hat ja zwei CEO. Zum einen Musk, als Hauptanteilseigner mit Visionen, der der Firma eine gesamte Medienabteilung einspart, denn alles, was von der Media-Division an wirklichen Neuigkeiten herauskommt, lasst sich schlussendlich dann wieder auf Musk zurückverfolgen. Zum anderen Shotwell, die sich um das Alltagsgeschäft kümmern muss und damit deutlich bodenständiger ist. Im obigen stammt denn auch die Prognose von 48 Starts für 2021 von Musk und die mit 40 von Shotwell.

Dann gab es die Verlautbarung der ersten Mannschaft die kommerziell zur ISS starten wird. Mich wundert das Elon Musk nicht dabei ist. Für ihn wäre es, selbst wenn er es bezahlen müsste, (und das muss er ja nicht, weil ihm das ganze Raumschiff gehört) doch wohl selbstverständlich das er mitfliegt. Aber er fliegt nicht mit genauso wenig wie bei den beiden Testflügen. Warum mich das wundert? Nun anders als bestimmte SpaceX Fans habe ich ein gutes Gedächtnis. Elon Musk gab an SpaceX gegründet zu haben, weil er eine Raumsonde zum Mars entsenden wollte, jnd seit Jahren gibt er die Marskolonialisierung als Ziel aus. Nur hat er bis heute keine Raumsonde zum Mars geschickt, nicht mal beim Falcon heavy Demoflug. Eine Red Dragon hat SpaceX schon bald nach Ankündigung wieder eingestellt. Wäre nicht für jemanden der sogar zum Mars, will die ISS interessant? Zumindest um mal einen Start und Landung, Schwerelosigkeit und den Blick auf einen Planeten aus dem Orbit zu erleben? Also wenn mir die Firma gehören würde und das Raumschiff auch Platz für sieben Personen hatte, ich würde mitfliegen. Immerhin, in fünf Jahren will Musk auf dem Mars leben. Abzüglich der Reisedauer hat er jetzt noch vier Jahre Zeit. Ich glaube das wird meine Wette für nächstes Jahr.

Wahrscheinlich ist es bei Musk, aber wie bei jedem anderen Unternehmer der das Letzte aus den Mitarbeitern rausholen will. Er versucht seine Mitarbeietr mit einem utopischen Ziel zu motivieren mehr als die vertragliche Arbeitszeit zu arbeiten, am besten ohne Bezahlung. Das haben schon andere vor ihm gemacht so Steve Jobs, der im Mac Entwicklungsteam eine Piratenflagge aufhing und als Motto ausgab: „It's more fun to be a pirate than to join the Navy“.

Nun kommt ja das Starship, das nach Musk nur 2 Millionen Dollar pro Start kosten dürfte. Ich glaube nicht an den Preis und auch nicht an einen Markt für das Gefährt, doch darum geht es nicht. Klar ist aber, das man bei 2 Millionen Dollar pro Flug mehr Starts als es heute gibt braucht, denn die Fixkosten für die Herstellung dürften nicht kleiner als bei einer Falcon Heavy sein, eher höher. Auf diese kleine Summe kommt man nur wenn man diese Fixkosten auf sehr viele Starts umlegen kann, ebenso alle anderen Kosten, sodass man praktisch auf den Betrag kommt, den der Treibstoff kostet und das dürften bei rund 5000 t eben diese 2 Millionen Dollar sein (entsprechend rund 400 Dollar pro Tonne Treibstoff). Also wir brauchen viel mehr Starts als nur mit Satelliten. Shotwell hat ja schon Ideen, wie das Einsammeln von Weltraumschrott. Aber da geht noch mehr

Starlink

Wenn SpaceX tatsächlich einmal 42.000 Satelliten im Orbit haben wollen, kommen sie mit Falcon 9 nicht weit. Bei wie bisher 60 Satelliten pro Flug entspricht das 700 Starts. Ein Starship hat in etwa die fünffache Nutzlast, würde das also auf 140 reduzieren. Derzeit haben sie wohl eher das Problem genügend Satelliten zu produzieren, denn bei den seit einem Jahr angekündigten Starts alle zwei Wochen, (die auch letztes Jahr nicht erreicht wurde) bräuchten sie so 27 Jahre um alle 42.000 Satelliten zu starten. Bei der Rate wie letztes Jahr sogar 50 Jahre. Bei 7 % Ausfallrate pro Jahr dürfen sie sich aber nicht mehr als 15 Jahre Zeit lassen.

ISS Versorgung

Ein Starship könnte problemlos so viel Fracht transportieren wie ein sonst alle Dragon Transporter in einem Jahr. Personen wird zumindest die NASA nach den Erfahrungen mit dem Space Shuttle nicht zur ISS mit dem Starship senden. Denkbar wäre so auch der Transport von weiteren Modulen seitens der Weltraumnationen zur ISS – zwei blieben ja nach der Kürzung 2005 am Boden. Ebenso könnte man private kommerzielle Module zur ISS bringen, sowie private Raumstationen aufbauen und versorgen. Selbst wenn dies nur unbemannt erfolgen würde, würde alleine der Frachttransport die Kosten für Betreiber bedeutend senken. Wenn die ISS mal am Ende der Betriebsdauer ist, kann man so auch Module entfernen, die am Ende ihrer Lebensdauer sind oder schwer aufgerüstet werden können. Eventuell kann man die Module auch nach Landung modernisieren und erneut starten aber in jedem falle zur Erde zurückbringen und im Museum ausstellen. Das spart die Kosten für die Deorbitierung der ISS, außer den sperrigen Mast und Solarpaneele.

Private Betreiber von Raumstationen werden wohl auch ihre Astronauten so befördern, weil für sie Kosten mehr zählen als Sicherheitsbedenken. Das leitet mich zum nächsten Punkt über.

Passagiertransport

In der ferneren Zukunft – selbst nach Musk – wird das Starship auch Menschen transportieren. Es gibt hier mehrere Möglichkeiten. Zum einen die Pläne des Suborbitaltransports, als schnelle Alternative zu Interkontinentalflügen. Da sich das irgendwie mit den Sicherheitsanforderungen und Zeitplänen von Flugplätzen beißt, wie ich schon erläuterte, wird das sicher erst spät erfolgen, wenn überhaupt. Aber auch das Militär träumt davon und die können problemlos für einen Start oder Landung eine Militärbasis sperren. So könnte man Elitekommandos schnell verlegen, ebenso wie sperriges Gerät. Das landen in feindlichem Gebiet für Aktionen à la Hollywood wird leider nicht gehen, denn dann will man von dort auch wieder weg und für ein entsprechend betanktes Starship ist der Schub der Triebwerke zu gering, auch wenn es vom Geschwindigkeitsvermögen sicher geht, wenn der Startpunkt nicht zu weit vom Landepunktentfernt ist, z.B. in Südkorea, wenn man Kim Jong Un in Nordkorea kidnappen will. (okay wäre nun eher ein Trump- als Bidenplan, aber bis Menschen mitfliegen, wird auch der nicht mehr im Amt sein).

Nu wenig mehr Energie als über einen suborbitalen Flug über 20.000 km Distanz benötigt man für einen Orbit. Bis zu 100 Personen sollen ja mitfliegen können. So ein Flug wäre aber kurz, denn für alles Längere fehlt die Infrastruktur an Bord (Energie, Verpflegung, Lebenserhaltung, hygienische Einrichtungen). Aber ein oder zwei Umläufe gehen sicher.

Langfristig wäre es für SpaceX wohl besser, eine eigene Raumstation aufzubauen. Wenn die 328 m² große entfaltbare Station von Bigelow in eine Atlas V Nutzlasthülle passt, könnte SpaceX in etwa eine 1200 m³ große Station starten, rund 300 m³ mehr Volumen als die ISS. Fünf dieser Stationen zusammengekoppelt in Form eines dreidimensionalen Kreuzes (der sechste Punkt ist für das Starship zum Andocken frei) hätten, wenn man 100 m³ Volumen pro Passagier plant, (ISS: 130 m³ bei 7 Personen) Platz für 72 Passagiere. Das sind nicht ganz 100, aber es kommen ja auch noch Verbrauchsgüter hinzu. Die blieben dann ein bis drei Wochen und würden dann beim nächsten Flug abgeholt werden, wobei dann gleich neue Kunden kommen. Die 2 Millionen pro Start geteilt durch 72 ergeben rund 30.000 Dollar, das könnten sich durchaus etliche leisten, die sonst einen Porsche anstatt Mercedes haben, denn auch der kostet in etwa das mehr, und ich sehe viele Porsche auf den Straßen. Also wenn das läuft, könnte man so durchaus auf die vielen Flüge des Starships kommen.

Einsammeln von „Weltraummüll“

Ein Vorschlag von Shotwell, den ich durchaus ernst nehme, ist das Einsammeln von „orbit debris“. Zum einen könnte die Firma damit bei ihren eigenen Satelliten anfangen. Man könnte es aber ausdehnen. Zum einen das Einsammeln von Dingen, die tatsächlich noch nützlich sind, nur eben modernisiert oder gewartet werden müssen. Spontan fällt mir das Hubble Weltraumteleskop ein. Das könnte man einfangen, auf der Erde neu ausrüsten, auftanken und erneut starten. Die Optik ist ja immer noch die gleiche. Man könnte es auch zu einem IR-Teleskop umbauen, das wegen verdampfenden Kühlmittel nur eine begrenzte Lebensdauer hat und dann eben regelmäßig geborgen werden muss. Dabei kann man dann auch die Wartung und Ausrüstung mit neuen Instrumenten miterledigen. Ähnliches gilt für zahlreiche militärische Satelliten, die man in den letzten Jahrzehnten startete. Sie waren teuer, hatten als Aufklärungssatelliten Optiken wie das HST, nur geht ihnen irgendwann der Treibstoff aus oder ihre Sensoren sind einfach nicht der aktuelle Stand der Technik. Auch sie könnte man bergen, mit neuen Kameras ausstatten und erneut starten. Das betrifft die Satelliten der Kennan und Hexagon Reihe.

Da das Starship mit Auftanken auch einen GEO erreicht, dürfte bei den Preises pro Start – nimmt man drei Flüge für Bergen und Neustart an, dann ist man bei 6 Millionen Dollar, auch darüber nachdenken Kommunikationssatelliten zu bergen und neu befüllt und gewartet neu zu starten. Die koten in der Fertigung leicht das zehnfache. Sicher hat ein alter Satellit dann eine viel kleinere Leistung gemessen an Sendern oder Bandbreite, aber er kostet auch nur einen Bruchteil eines neuen Satelliten.

Schlussendlich könnte man, zumindest wenn man sowieso eine Mission in einer ähnlichen Umlaufbahn durchführt, einen alten Satelliten einsammeln, um ihn in ein Museum zu bringen.

Atommüllentsorgung

Angeregt durch die Kommentare zu einem älteren Beitrag, als man das Space Shuttle nutzen wollte, um Atommüll zu entsorgen, kam ich auf die Idee, dass das ja im Prinzip, das gleiche ist. Wegen der Wiederverwendung des Starships kommen etliche der Optionen, die damals diskutiert wurden, nicht in Frage. Aber zwei denke sind einer näheren Betrachtung wert. Relativ gut durchführbar wäre die Platzierung in einem 55.000 km Orbit. Das liegt über dem geostationären Orbit und wäre verhältnismäßig gut erreichbar. Mit drei Auftankflügen könnte man rund 30 t in einen solchen Orbit bringen, was, wenn ich die damalige NASA-Studie als Maßstab nehme, rund 5 t Abfall entspricht, bei den derzeit in den USA stationierten Kernkraftwerken benötigt man rund 22 Flüge alleine dafür pro Jahr und es gäbe ja noch andere Nationen mit Kernkraftwerken. Natürlich wäre der Abfall gut abgeschirmt – nur ein Fünftel wäre nach der NASA Studie Abfall, der Rest Abschirmung.

Auch ein zweites Szenario wäre möglich: Das Abladen auf der Rückseite des Mondes – SpaceX hat der NASA ja schon das Starship als Vehikel für eine bemannte Mondlandung angeboten – und da ist es, egal ob man Astronauten oder Atommüll landet. Nur wegen des viel höheren Geschwindigkeitsbedarf und der nötigen Rückkehr käme dies erheblich teurer.

SDI

Erinnert sich noch jemand an SDI? Die Strategic Defense Initiative sollte Atomsprengköpfe durch weltraumgestützte Waffen abfangen. Das konnte man wohl nur einem Präsidenten verkaufen, der von Beruf Schauspieler war. SDI scheiterte an vielen Problemen, organisatorischen, technischen und der Unmöglichkeit, es vorher zu testen. Den populären Namen „Star Wars Programm“ bekam es nach einer Senatsanhörung, als ein Senator sagte, „Das ist so utopisch wie Star Wars“. Aber seitdem sind 30 Jahre vergangen. Einige Technologien, die damals nur erprobt wurden, sind mittlerweile ausgereift oder im Einsatz. Die USA können anfliegende Raketen heute mit anderen Raketen abfangen und haben ein System dazu in Einsatz, das aber nur auf einzelne Sprengköpfe von „Schurkenstaaten“ ausgerichtet ist. Ebenso wurde schon das Abfangen per Laser demonstriert. Für ein System, das alle 1.500 Sprengköpfe über die Russland noch verfügt, abfangen könnte, benötigt man aber erneut ein weltraumgestütztes System. Das muss groß sein, weil jede Station nur kurz sich über dem Startland befindet, ähnlich wie man auch bei Starlink Tausende von Satelliten benötigt, selbst wenn man nur die USA mit Internet versorgen will. Wenn die Starlinksatelliten aber in Serie gebaut werden können, warum nicht auch Weltraumwaffen?

Für SDI reichte ein Space Shuttle nicht aus, man plante damals einen Carrier Shuttle oder Heavy Liuft Vehicles, also große Trägerraketen. Nun hat das Starship in etwa die Nutzlast, die ein Carrier Shuttle gehabt hätte und könnte dessen Rolle übernehmen. Auch hier wäre Biden wohl nicht dafür zu gewinnen, doch was ist, wenn Trump 2024 noch mal antritt?

Weltraum-Werbung

Wie wäre es mit Werbung, die man weltweit sehen könnte? Werbung, die auffällt und begeistert? Bei 2 Millionen Dollar pro Flug sind wir in einer Größenordnung, die zum Etat von großen Firmen für Werbekampagnen passt. Es gäbe einige Möglichkeiten. Idealerweise würde man Werbung nur in einen niedrigen Orbit starten, denn so verglüht sie bald wieder und bildet keinen Orbitmüll, man will ja keine Werbung sehen, wenn es das Produkt das beworben wird, nicht mehr verfügbar ist. Nun gut Imagewerbung mit Logos könnte man ewig lange betreiben. Die würde man dann höher positionieren so in 1200+ km Höhe. Es reicht eigentlich passive Werbung, die vom Sonnenlicht beschienen wird. Sie ist dann für einige Zeit nach Sonnenuntergang und vor Sonnenaufgang sichtbar, je höher der Orbit desto länger, bei über 2.700 km Höhe ist sie immer nachts beleuchtet, auch um Mitternacht. Ebenso steigt die Dauer der Sichtbarkeit und der Anteil der Erdoberfläche, von wo man sie sieht, mit steigender Orbithöhe an. Allerdings sinkt auch die Nutzlast und noch bedeutender – doppelte Orbithöhe verkleinert die visuelle Größe auf die Hälfte

Eine Werbung aus Solarsegeln wäre technisch einfach und leicht umsetzbar. Da wo ein Logo oder eine Botschaft da wäre, gäbe es einfach eine Lücke. Solarsegel wiegen pro m² mit Streben um die 20 g. Mit einer Nutzlast von 80 t könnte man also 4 km² in einen Orbit bringen, das wäre in 400 km Höhe eine Fläche halb so groß wie der Vollmond. Bei einem Schriftzug denn man gerade noch erkennen kann (6 x 7 Matrix) wären das genau 7 Buchstaben. Oder ein Logo mit maximal 296 Pixeln. Eventuell geht mehr wenn man sie leichter bauen kann.

Größere Elemente müsste man aus Einzelelementen zusammenbauen, dann natürlich vorzugsweise im höheren Orbit (daher habe ich auch nur mit 80 t Nutzlast gerechnet).

Suborbitaltourismus

Last, but not least könnte SpaceX auch klein anfangen. Ein nicht vollständig mit Treibstoff beladenes Starship könnte mit den sechs Triebwerken starten. SpaceX müsste nur die Vakuumdüsen bei drei Triebwerken durch die kürzeren Düsen der normalen Triebwerke ersetzen. Bei einem Start mit 1,2 g könnte man 980 anstatt 1200 t Treibstoff mitführen. Senkrecht gestartet erreicht es trotzdem eine beachtliche Höhe. Ich errechne bei einer Simulation rund 1090 km: hlöher als die ISS und die Spitzenhöhe der New Shepard und SpaceShip Two. Entsprechend mit einem besseren Blick und auch etwas längerer Dauer, wenn auch nicht wesentlich länger, nach der Simulation gesamt 1961 s, wovon etwa 1400 bis 1500 s in der Schwerelosigkeit sind. Durch die relativ große Passagierkabine können auch viele Leute mitfliegen – ich habe 100 t Nutzlast wie bei Orbitalflügen angenommen. Im New Shepard hat die Kabine nur 15 m³.

Selbst wenn man von ihnen den vollen Startpreis erwartet (obwohl drei Viertel der Masse nicht starten) wäre ein Ticket billiger als bei den Konkurrenten. Für SpaceX hätte es den Vorteil das sie das gesamte Wiedereintrittssystem testen können, nur bei milderen Bedingungen, etwa der halben Wiedereintrittsgeschwindigkeit, die beim orbitalen Einsatz auftreten. Ebenso können sie die Passagierkabine und ihre Einrichtungen testen bei überschaubarem Risiko, denn runter kommen sie in jedem Falle. Das wäre also eine echte Win-Win Situation. Nun ja, sofern die Landung mal klappt und sich Passagiere mit dem Drehen in wenigen Sekunden um 90 Grad anfreunden. Ich würde angesichts des Videos vom SN8 Testflug spätestens vor der Landung Spucktüten verteilen ….

Zuletzt gibt es natürlich noch die Bestattung im All. Erstaunlicherweise ist das bislang noch nicht so nachgefragt worden, wie ich denke. Beim Rideshare Programm von Spacex kosten derzeit 200 kg Nutzlast 1 Million Dollar. Also 5.000 Dollar pro Kilogramm. Eine Urne mit Asche wiegt zwei bis drei Kilogramm. Ein Beerdigungsunternehmen könnte also 66 bis 100 Personen sammeln und einen Mitflug buchen, zu 10.000 bis 15.000 Dollar pro Person – teurer als eine Erdbestattung, die zumindest bei meiner vor fünf Jahren verstorbenen Mutter 3.260 Euro nur an Friedhofsgebühren kostete, aber es ist ja jetzt noch etwas Exklusives. Wenn es SpaceX aber gelingt, den Preis pro Kilogramm auf etwa 1.000 bis 1.300 Dollar zu drücken – das wäre schon bei 100 bis 130 Millionen Dollar pro Flug der Fall. dann wäre die Beerdigung billiger als zumindest in Deutschland die Erdbestattung. Ich habe das ja schon vor vier Jahren mal vorgeschlagen.

Das sind doch einige hochkarätige Vorschläge, falls Musk und Shotwell die Ideen ausgehen.

3.2.2021: Asteroid Mining mit dem Starship

SimonVr‘s Kommentar zu Einsatzmöglichkeiten des Starships (wie immer bei den Amis wird übertrieben – Sterne wird es nie erreichen ….) hat mich auf die heutige Idee gebracht. Das Thema ist ja nicht neu. Jesco von Puttkamer brachte es schon in seinem Buch „Der erste Tag der neuen Welt“ als Zukunftsvision. Auch für die kostengünstige Bergung hatte er eine Lösung: Als Metallschwamm sollen Metalle so leicht sein das sie auf dem Meer schwimmen. Allerdings bedeutet das auch mehr Widerstand beim Wiedereintritt und damit höhere Verlustraten durch Verdampfen als bei einem Metallbrocken, der so dicht ist das er ab einer relativ kleinen Mindestgröße nahezu ungebremst die Atmosphäre passiert.

Noch weiter gingen andere Projektionen. So habe ich in den Achtzigern auch schon mal Abbildungen gesehen, in denen ein Asteroid erst bergmännisch erschlossen und dann, da man dies nicht von der Oberfläche aus getan hat, sondern nur an einer Seite das innere ausgehöhlt, als Siedlung genutzt werden, indem Menschen sich im Inneren ansiedeln.

Auf der anderen Seite bin ich schon vor Jahren über einen Artikel eines Nobelpreisträger gestolpert, in dem er vorrechnete das mit dem Space Shuttle irgendeine Produktion im Weltraum nicht kostendeckend ist, da der Preis für den Transport von Material höher sei als der (damalige) Goldpreis. Daran hat sich auch heute nicht viel geändert. Beim aktuellen CRS-2 Contract zahlt die NASA für den Transport von 87.900 kg Fracht eine summe von 6.310.000.000 Dollar an die Firmen, pro Kilogramm im Schnitt also 71.871 Dollar. Der Goldpreis liegt heute bei 58.448 Dollar pro Kilogramm.

Nun mag der eine oder andere Leser einwenden, dass man ja bei CRS Fracht in den Orbit bringt, ich aber von der Bergung rede. Das ändert aber nicht viel. Es ändert nur dahin gehend was, das man einen leeren Frachter in den Orbit schickt und ihn dann befüllt. Das macht den Frachter zuerst mal billiger, weil bei dem Vehikeln etwa ein Drittel der Masse auf die Fracht entfällt. Auf der anderen Seite überstehen die meisten Vehikel nicht den Wiedereintritt und bei der Dragon wo das als einziger Fähre der Fall ist. Das wiegt an der ISS etwas über 12 t was mit dem Treibstoff um die ISS zu erreichen dann in Richtung 13 t geht und kann maximal 3,3 t zurückbringen. Das sind gerade mal etwas mehr als ein Fünftel der Gesamtmasse. Vor allem aber muss ja die Nutzlast erst mal in einen LEO kommen und das ist bisher nicht machbar.

Aber nun kommt ja das Starship, das 100 t zur Erde zurückfuhren kann, und das für 2 Millionen Dollar pro Start. Ich habe mir mal den Spaß gemacht auszurechnen, ob es sich lohnt so Asteroiden auszubeuten.

Wie würde das ablaufen? Auch bei 2 Millionen Dollar pro Start – an die nicht mal SimonVr glaubt (und das will was heißen) ist es logisch das man bei 100 t Kapazität nur Wertvolles zur Erde bringt, denn 100 t Eisen kosten z.b. keine 2 Millionen Dollar. Man wird also auf dem Asteroiden eine Fabrik bauen müssen, die aus dem Gestein die wertvollen Elemente extrahiert, so wie man das heute auch tut, z.B. bei der Goldgewinnung. Ich ignoriere mal das diese Fabrik völlig wartungsfrei im Vakuum unter nahezu Null Gravitation (alle erriechbaren Asteroiden sind samt und sonders kleine Körper mit maximal einigen Kilometern Durchmesser und entsprechend kleiner Gravitation) funktionieren muss und das man sie natürlich auch erst errichten muss, was weiteren Aufwand und vor allem Fracht bedeutet. Das gängige Verfahren der Goldextraktion entweder mit Cyanid oder Quecksilber funktioniert so z.B. nicht mehr. Es geht mir nur um die Flugzahl eines Starships das ja mit einem Preisschild versehen ist, für die maximal 100 t Fracht pro Flug – weniger als die volle Fracht zu transportieren wäre weniger lukrativ das man ja immer das Starship mit zum Asteroiden befördern muss.

Nach dem Wikipediaartikel ist der günstigste Asteroid, was das dV angeht Ryugu, der erst kürzlich von der japanischen Raumsonde Hayabusa-2 besucht wurde. Das dV beträgt reaktiv zur Erdebahn (hin und zurück) 4,863 km/s.

Doch erst mal muss man die Erde verlassen. Bringt man dabei gleich die Geschwindigkeit für den Hinflug auf (2,432 km/s, also die Hälfte) so kann man den hyperbolischen Exzess ausnutzen. Aus einer 200-km-Bahn beträgt dann die aufzubringende Geschwindigkeit 3.493 m/s. Beim Rückweg kommt man um die 2,432 km/s nicht herum. Aber man muss nicht wieder in einen LEO einschwenken. Es reicht ein elliptischer Orbit. Ein 200 x 80.000 km Orbit wäre ausreichend. Diesen könnte man durch Aerobraking dann langsam absenken. Eventuell könnte das Starship auch direkt landen, ohne vorher in einen Orbit einzutreten. Angekündigt hat Musk das zumindest. Aber nach Mussks Ankündigungen sollte es auch schon fliegen. Beim Einschwenken in einen elliptischen 200 x 80.000 km Orbit wären nochmals 672 m/s aufzubringen. Das gesamt dV relativ zu einem 200 km kreisförmigen LEO Orbit wäre somit 5.925 bzw. 6.507 m/s.

Das Starship benötigt Treibstoff, der muss für die Hin- und Rückreise in den LEO gebracht werden. Den auf Ryugu gibt es nichts, woraus man Treibstoff gewinnen könnte. Ich rechne nun nur mal die günstigere Variante aus. Das muss man in zwei Stufen tun. Denn das Starship hat ja nur beim Rückflug Fracht an Bord. Dann wiegt es 220 t (120 t leer + 100 t Fracht) und muss mindestens 2432 m/s aufbringen. Das entspricht nach der Ziolkowski Gleichung bei dem von SpaceX gewünschten spezifischen Impuls von 3730 m/s 420,3 t Startmasse – 220 t Starship und 200,3 t Treibstoff. Beim Hinflug sind es 3.493 m/s Geschwindigkeitsänderung, aber nun beträgt die Endmasse nur 320,3 t – das heißt die 200,3 t Treibstoff und das 120 t schwere, leere Starship. Trotzdem liegt dann die Startmasse bei 818 t. Das sind also insgesamt 698 t Treibstoff die man zusätzlich zum Starship erst mal in einen LEO bringen muss.

Als reiner Tankerflug (ohne Nutzlast) hat ein Starship nach meinen Simulationen bei 100 t prognostizierter Nutzlast, wenn es leer startet, noch 117 t Treibstoff. Die 17 t mehr rühren daher, das ja schon vom Start her es 100 t weniger wiegt, die 100 t also die Stufen gar nicht beschleunigen müssen. Teile ich 698 t durch 117 t, so komme ich auf 6 Starts.

Nun die Wirtschaftlichkeitsrechnung. Wie schon gesagt unter der optimistischen Annahme, das die Gewinnung der Rohstoffe nichts kostet, SpaceX Wunschvorgaben hinsichtlich Massen, spezifischen Impulsen und Kosten alle eingehalten werden können (nicht mal SimonVr glaubt bei den Kosten daran). Dann entspricht das 7 x 2 Millionen Dollar = 14 Millionen Dollar für 100 t Nutzlast, mithin 140 Dollar pro Kilogramm. Silber liegt heute drüber (890 Dollar/kg), Kupfer mit 17,5 Dollar/kg drunter. Bei 20 Millionen Dollar pro Flug ist es nur noch für wenige Edelmetalle wie Gold, Platin, Iridium lukrativ sie bergmännisch zu gewinnen.

Soviel zu den guten Nachrichten. Nun zu den schlechten Nachrichten: bemannt geht das nicht. Sowohl die Hinreise wie auch Rückreise dauern jeweils 226 Tage als Hohmanntransferbahnen. Daneben kann man nicht sofort zurück, sondern erst beim nächsten Startfenster. Eine Besatzung würde während dieser Zeit viel zu viele Ressourcen benötigen, mal abgesehen davon, dass sie anders als bei Marsmissionen immer 0 G ausgesetzt wäre. So müsste man auch eine Fabrik und andere Gerätschaften dort aufbauen ohne das jemand eine Montage durchführt. Das stelle ich mir schwierig vor.

Für eine wirklich wirtschaftliche Ausbeutung sind auch die Startfenster, für die die obigen Geschwindigkeiten gelten, zu selten. Optimale gibt es alle 1.878 Tage. Mit etwas höherer Geschwindigkeit kann man aber ausnutzen, dass die Umlaufsdauer von Ryugu mit 1,3 Jahren nahe dem Wert von 4/3 Jahren ist, sodass auch ein Startfenster alle vier Jahre resultiert – nur dazwischen steigt der Geschwindigkeitsbedarf eben rasant an.

Auch ungeklärt ist, wie viele der wirklich wertvollen Metalle Ryugu enthält und ob sich ein Abbau lohnt. Die Ziffer, die in der Wikipedia steht, gilt ja für den ganzen Asteroiden und alle Elemente. Vereinfacht gesagt: es mag dort zwar Vorkommen an Elementen geben, die auf der Erde verkauft viel Geld einbringen würden, aber die ganz teuren die es sich lohnt abzubauen, können in nur geringer Konzentration vorkommen, sodass es sich nicht lohnt. Gerade die schweren Elemente kommen vornehmlich nur Eisenasteroiden vor, die jedoch sehr selten sind. Ryugu ist nicht einer von ihnen. Da gerade ie Proben von Hayabusa angekommen sind, wird man vielleicht bald mehr wissen, denn die Konzentration der meisten wirtschaftlichen ausbeutbaren Elemente ist zu klein um sie in den bisherigen Analysen durch das Spectrometer von Hayabusa detektieren zu können, das konnte nur die Silikate näher bestimmen.

Dazu kommt noch das Problem von Angebot und Nachfrage. Angenommen es klappt tatsächlich so Elemente zu bergen, dann könnte wenn diese auf den Markt kommen, die Preise sinken. Der derzeit hohe Goldpreis entstand ja dadurch das seit 2008 immer mehr Leute Gold als vermeintlich sicherer Geldanlage wählen. So ist Gold mittlerweile teurer als Platin und Osmium, die da seltener früher teurer als Gold waren. Umgekehrt kann dann natürlich ein Überangebot an Gold den Goldpreis sinken lassen.

Immerhin: Dem Gold macht es nichts aus wenn das Starship wie gestern landet....

4.2.2021: Rätsel des Alltags: Der E-Scooter

Ich möchte heute mal mit einer neuen Reihe anfangen, die wie man am Titel schon erkennt, von „Rätseln des Alltags“ handelt. Gemeint sind aber nun nicht mysteriöse oder gar geheime Dinge, als vielmehr Dinge die rätselhaft sind, weil sich nicht einleuchtend oder logisch sind. Also so Dinge, wo man sich fragt „Wie ist jemand nur auf diese Lösung gekommen?“. Heute geht es um die E-Scooter, die ja nun offiziell zugelassene Verkehrsmittel sind. Ich kam auf den Artikel, weil in der vorletzten ct' ein solches Gerät getestet wurde, und auch die rechtlichen Vorschriften beleuchtet werden.

E-Scooter sind mit einem Elektromotor betriebene Tretroller. Sie dürfen in Deutschland eine maximale Geschwindigkeit von 20 km/h – plus 10 % Abweichung, also maximal 22 km/h, die zumindest ein Roller erreicht, aufweisen. Der Akku ist fest verbaut, in der Regel nicht wechselbar. Men benötigt eine Versicherung und ein Nummernschild wenn man mit ihnen fährt. Dafür gibt es aber keine Helmpflicht und sie müssen auch keinen Blinker haben, obwohl es riskant sein soll, die Hand vom Lenker zu nehmen, um de Abbiegeabsicht anzuzeigen. Rechts ein Signal zu geben, geht es wegen dem Gaspedal am rechten Griff sowieso nicht. Fahren darf man nur auf dem Fahrradweg oder, wenn dieser nicht existiert, (der Normalfall) auf der Straße, nicht auf dem Gehweg. Es gelten die gleichen Vorschriften für Alkoholgrenzwerte wie bei anderen motorisierten Gefährten.

Soviel an Zusammenfassungen. Ich überspringe mal die Grundsatzfrage, ob man so etwas überhaupt braucht. Die meisten sind sich einig, dass ein E-Scooter ein Gefährt für Kurzstrecken, also die letzte Meile ist. Da viele Roller zusammenfaltbar sind, bieten sie sich vielleicht für Leute, an denen das Laufen zur nächsten Bus- oder Straßenbahnhaltestelle zu anstrengend ist. Meiner Erfahrung nach ist aber in Städten und Umgebung von Großstädten das Netz an Haltestellen so groß, dass man die nächste Haltestelle auch ohne E-Scooter schnell erreicht und auf dem Land sind nicht nur die Haltestellen dünn gesät, sondern auch die Taktung unattraktiv, sodass man dann gleich auf ein größeres motorisiertes Gefährt oder E-Bike ausweicht. Aber es gibt Käufer für die Roller und man sollte nie die Zahl der faulen Leute unterschätzen.

Unverständlich ist für mich aber, dass man für einen E-Scooter der maximal 20 km/h erreicht, eine Versicherung und ein Nummernschild braucht und gesetzlich, wie ein Fahrer von Motorrädern behandelt wird, während man das für E-Bikes oder Fahrräder nicht braucht. Ich vermute es liegt daran, das man bei E-Bikes noch selbst treten muss, um vorwärtszukommen, bei den E-Scootern nicht und sie daher als nur motorisierte Geräte, vergleichbar einem Mofa behandelt werden. Nur macht das keinen Sinn, wenn es um die Unfallgefahr und die entstehenden Schäden geht. Die Gefahren sind bei einem Fahrrad wegen der höheren Geschwindigkeit höher, auch weil, wenn man mal einen Unfall hat, man aus einer höheren Position stürzt. Die Einstufung als Fahrzeug endet aber dann beim Blinken. Jedes andere motorisierte Gefährt braucht einen Blinker, also eine blinkende Leuchte, die die Abbiegabsicht anzeigt. Man kann nach Erfahrungsberichten nicht mit der Hand ein Abbiegen signalisieren. Das sei zu gefährlich. Mit nur einer Hand ist der Roller schwer steuerbar. Es gibt hier also ein Gefährt im Straßenverkehr das nicht signalisieren kann, in welche Richtung es abbiegt. Blinker sind nicht vorgeschrieben, doch wenn man sie nachträglich montiert greifen dann neue Vorschriften – also warum schreibt man sie nicht gleich vor.

Die Versicherung stellt mich vor die größten Rätsel, zumindest als Nur-Fahrradfahrer. Bei einer Versicherung denke ich natürlich immer an einen Versicherungsschutz. Also man bezahlt Beiträge und im Falle eines Falles ist man abgesichert. Ich fand aber nichts über die Leistung der Versicherung, sondern nur, dass man eine braucht und die verknüpft ist mit einer Versicherungsplakette. Was leistet sie? Anscheinend nichts. Der einzige Zweck der Versicherung scheint zu sein, das man eine Plakette (Nummernschild) erhält und so die Polizei feststellen kann, ob man versichert ist. Anders als beim Auto ist das aber nicht mit einer Verkehrstauglichkeitsprüfung verbunden. Also relativ sinnfrei. Sie kostet aber zwischen 20 und 60 Euro pro Jahr, was bei typischen Kosten von 400 Euro für einen E-Scooter relativ viel ist.

Viel sinnvoller fände ich eine Helmpflicht – nicht nur für E-Scooter, sondern auch für Radfahrer. Beim nur unwesentlich (5 km/h) schnelleren Mofa gibt es ja die Helmpflicht. Das würde, wenn schon ein Unfall passiert, und das scheint, relativ häufig vorzukommen, die Folgen verringern.

Bleibt noch die Spitzengeschwindigkeit. 20 km/h sind nicht viel. Der Beitrag verweist darauf das in zahlreichen europäischen Ländern 25 km/h zulässig sind, in den USA sogar 30 km/h. Ich fand die 25 km/h Beschränkung bei E-Bikes schon blödsinnig, weil auf ebener Straße ich selbst mit dem E-Bike auf mehr als 25 km/h komme. Bei meinem Fahrrad (ohne Motor, aber auch leichter, wenn bei 25 km/h die Abschaltung des Motors beim E-bike kommt) sind es auf längeren Strecken in einer hier leicht hügeligen Umgebung bei mir im Mittel 18 bis 19 km/h - aber natürlich mit allen Stopps, die es im Straßenverkehr gibt. Trotzdem lasse ich das Thema außen vor, weil nach den bisherigen Erfahrungen viele Fahrer sich selbst und ihr Fahrkönnen überschätzen. Ärzte befürchten eine erhöhte Unfallgefahr durch die Konstruktion der Roller. Da wären 20 km/h eher besser als 25 km/h. Klar für die Rollerbesitzer ist es natürlich frustrierend, wenn ein Fahrrad an ihnen mühelos vorbeizieht, aber das Problem haben, dann die Fahrradfahrer zumindest beim Anstieg auch mit den Rentnern auf E-Bikes.

Das Hauptproblem scheint aber die Gesamtbilanz zu sein. Die meisten der E-Scooter werden kurz genutzt und dann nicht mehr. Verliehene E-Scooter sind oft defekt und werden dann entsorgt und haben so eine miserable Ökobilanz.

Irgendwie beschleicht mich das Gefühl, das man die Sache nicht richtig durchdacht hat. An der Ökobilanz wird man nichts ändern können, auch nicht das es wohl mehr ein Gadget, als ein Fahrzeug ist, aber bei den restlichen Vorschriften hätte man einiges ändern können. Meiner Ansicht nach sollten die Geräte wie Fahrräder oder E-Bikes behandelt werden.

5.2.2021: Siderische und synodische Perioden

Ich habe in den letzten Tagen einige Mails mit jemanden ausgetauscht, dehn man wohl zum Umfeld der Verschwörungstheoretiker zählen muss. Diesmal ging es zwar um den Mond, aber nicht um die Mondlandung, sondern einem viel weiterreichenden Phänomen: Alle Astronomen liegen seiner Ansicht nach, seit Jahrhunderten falsch und alle Entfernungen, die publiziert werden, stimmen nicht! Als Beweis gilt ein Buch eines Tischlermeisters.

Ich habe ihm das versucht kurz zu erklären und anders als die Moon Hoaxer, die ich bisher kannte, scheint er auch bedingt lernbereit zu sein, auch wenn er wie alle Moon Hoaxer meint, das ihm wildfremde Personen ihm etwas erklären sollen, was er selber nicht verstanden hat und wofür er nicht die Geduld hat, es sich anzueignen.

Aber das Thema ist interessant. Es geht um zwei unterschiedliche Perioden, die wir bei jedem Himmelskörper beobachten können. Am deutlichsten und am einfachsten zu beobachten ist der Unterschied beim Mond. Daher nehme ich ihn als Beispiel.

Der Mond entstand nach der gängigen Theorie aus dem Zusammenstoß der Erde mit einem weiteren Protoplaneten. Dabei wurden Teile der beiden Planeten ins All geschleudert, formierten sich in der Umlaufbahn zum Mond. Der Mond entstand nahe der Erde und wurde durch die Gravitationskraft zu einer gebunden Rotation gebracht. Bei einer gebundenen Rotation ist die Dauer der Drehung um die eigene Achse gleich der Periode die der Himmelskörper benötigt, um den Planeten zu umkreisen. Sie kommt dadurch zustande, dass die Gravitation dem planetenzugewandten Teil größer ist, als dem abgewandten und so jede Rotation gegen diesen Gradienten kämpfen muss und verlangsamt wird.

Das Phänomen ist nicht unbekannt. Alle Monde die einen Planeten nahe umkreisen rotieren gebunden. Selbst die größten Monde im Sonnensystem, Ganymed und Titan. Pluto und Charon sind sich so nahe und in der Masse so ähnlich das auch Pluto gebunden rotiert. Bei Pluto und Charon sind Rotationsdauer beider Körper und gemeinsame Umlaufszeit um einen gemeinsamen Schwerepunkt identisch. Bei Merkur hat die Sonne den Planeten zu einer 2/3 Periode gebracht, bei der Ähnliches wie bei der gebunden Rotation gilt.

Die Energie geht übrigens nicht verloren – in der Rotation steckt ja Energie wie jeder weiß, der mal einen rotierenden Kreisel gestoppt hat. Gemäß dem Energieerhaltungssatz – genauer: Des Drehimpulserhaltungssatzes, muss die Rotationsenergie, die in Erde und Mond steckt, konstant bleiben. Verlangsamt sich die Rotation, gemessen in der Periode für eine Umdrehung, so muss als Ausgleich der Körper vom Planeten wegrücken, denn im Gesamtsystem gibt es als Impuls auch die Kraft, die der Körper hat, wenn er den Planeten umrundet und die nimmt mit steigender Entfernung zu. Auch das kann jeder mit einem Ball an einem Seil nachprüfen. Als der Mond entstand, so vermuten Astronomen, hatte die Erde noch eine Rotationsperiode von 6 bis 12 Stunden und er war damals viel näher der Erde. Die Zunahme der Tageslänge ist auch für die letzten einigen Hundertmillionen Jahre an Wachstumslinien von fossilen Korallen, die Tages- und Jahresringe bilden nachvollziehbar. Vor 310 Millionen Jahren war der Tag z.B. nur 20 Stunden lang.

Nach der Einleitung nun zum eigentlichen Phänomen. Die Entfernung des Mondes zur Erde ist bestimmbar, das ging schon vor der heute verfügbaren genauen Bestimmung mittels Laser oder RADAR. Eine kleine Geschichte findet man hier. Die mittlere Entfernung des Mondes von der Erde sowie die Extreme (die Umlaufbahn ist nicht kreisförmig, sondern leicht elliptisch) waren schon vor der Raumfahrt genau bekannt. Ich habe zum Spaß mal in meinem ältesten Buch nachgeschaut, „Schlag nach!“ aus dem Jahre 1938, dort steht sie mit 384.400 km. Korrekt sind 384.403 km, aber alle Angaben in dem Buch sind auf 100 km gerundet. Selbst wenn es 3 km weniger wären, so wäre das ein Messfehler von gerade mal 1/100.000. Nun behauptet er bzw. das Buch des Tischlermeisters das wäre falsch, denn die Dauer eines Monats beträgt ja nicht 27,33 Tage, die Umlaufdauer, die der Mond hat, sondern 29,5 Tage, die Dauer zwischen zwei Perioden von Neumond zu Neumond. Diese Differenz gibt es bei allen Himmelskörpern und die beiden Perioden haben daher auch einen Namen: siderische und synodische Periode. Sie kommen daher, dass wir alles von der Erde aus beobachten, nicht von außen, wie man das bei der Ermittlung von Perioden eigentlich korrekt tun müsste.

Die Differenz kommt daher, das die Beobachtung nicht aus einem ruhenden Bezugssystem aus möglich ist, sondern sich die Erde sich im Raum bewegt:

Wenn sich alles bewegt ist es schwer, eine Periode herauszufinden. Aber es gibt etwas, was relativ fest ist und deswegen auch Fixsternhimmel heißt. Die Sterne bewegen sich auch, aufgrund der großen Distanzen zwischen ihnen und uns, ist die relative Bewegung in Form einer Positionsänderung so klein, dass man sie nur mit ausgeklügelten Instrumenten bei den nächsten Sternen messbar ist. Bei Sternen, die über 1000 Lichtjahre entfernt sind, können nicht mal Satelliten die Bewegung mehr feststellen. Man kann die Sterne also über menschliche Zeiträume als „fest“ ansehen.

Doch schon die Sterne bewegen sich scheinbar. Man sieht im Sommer andere Sterne als im Winter. Frühere Kulturen nutzen das als Kalender. Auf der Himmelsscheibe von Lebra findet man die Plejaden, ein Wintersternbild, wie der Orion. Der Sirius als hellster Stern wurde von den Ägyptern genutzt um den Beginn der Nilflut vorherzusagen. Die Ägypter waren dabei relativ gut. Sie hatten schon lange vor anderen ein Jahr basierend auf der Sonne, nicht dem Mond. Selbst die sonst technisch so begabten und praktisch denkenden Römer hatten bis Julius Cäsar Ägypten besetzte einen Mondkalender. Julius Cäsar führte den heutigen Kalender ein, er erweiterte ihn um zwei Monate (September bis Dezember waren mal, wie die lateinischen Wörter für sieben bis zehn in den Monatsnamen verraten, mal die siebten bis zehnten Monate). Dafür hat er sich dann auch gleich im neuen Monat Juli verewigt. Augustus hat dann einige Jahrzehnte später noch den Schalttag eingeführt und sich als Verdienst für diese Reform auch einen Monatsnamen gegönnt.

Die Rotation der Sterne entsteht durch die Umdrehung der Erde um die Sonne und ist de erste Hinweis auf das Problem: Wir beobachten alles aus einem rotierenden Bezugssystem, und zwar einem, das gleich zwei Rotationen durchführt, einem um die eigene Achse und eine um die Sonne.

Als siderische Periode bezeichnet man die Periode eines Himmelskörpers bezogen auf den Fixsternhimmel – das dieser einmal pro Jahr rotiert ignoriert man – sie ist bei Planeten leicht beobachtbar, beim Mond schwerer, weil er viel heller ist und die Sterne in seiner Umgebung überstrahlt, heute wäre das aber mit einer Kamera, bei der dann der Mond überbelichtet ist, kein Problem. Wenn der Email-Schreiber das macht, wird er feststellen, dass der Mond nach 27,33 Tagen wieder vor denselben Sternen steht, er hat bezogen auf diesen festen Bezugspunkt genau eine Umdrehung vollführt. Das entspricht seiner Rotationsdauer im Orbit. Was er aber auch feststellen wird, ist das dieser Punkt nicht an derselben Position am Himmel ist, denn die Fixsterne umkreisen die Erde ja auch in einem Jahr und in 27 Tagen haben sie sich etwa um 1/13 eines Umlaufs weiter bewegt. Noch bedeutender ist, dass der Mond eine andere Phase zeigt. Die Phase, die er zeigt, hat aber nichts mit der Rotation bezogen auf die Sterne zu tun, sondern der Position relativ zur Lichtquelle, und das ist die Sonne. In den 27 Tagen hat sich die Erde auch um 1/13 des Jahres gegenüber der Sonne bewegt. Die beleuchtete Phase repräsentiert den Winkel zwischen Sonne-Erde und Sonne-Mond. Ist er 0 oder 180 Grad, so steht der Mond in einer Linie mit der Verbindung Erde-Sonne, also entweder Sonne-Erde-Mond oder Mond-Erde-Sonne. Es ist Vollmond oder Neumond. Bei 90 Grad ist es entsprechend Halbmond. In den 27 Tagen hat sich die Erde aber um die Sonne bewegt und eine direkte Linie Sonne-Erde-Mond (Vollmond) ist nun keine direkte Linie mehr. Der Mond hinkt hinterher, denn er muss die Bewegung der Erde um die Sonne aufholen, die ja 27 Tage Vorsprung hat. Da der Mond schneller die Erde umkreist, als die Erde die Sonne, geht das fix, er braucht nur 2,2 Tage dafür. Das ist die synodische Periode. Es ist die relative Periode, bei der bezogen auf die Sonne die Himmelskörper die gleiche Position haben. Im Falle des Mondes ist es der Zyklus zwischen zwei vollen Phasen also z.B. von Neumond zu Neumond. Nur steht da der Mond immer vor anderen Sternen, wie man leicht nachprüfen kann. Die 29,5 Tage sind die synodische Periode des Mondes,

Synodische Perioden haben auch die Planeten. Hier sind es die Zeiträume, in denen sich besondere Stellungen der Planeten zueinander wiederholen, z.B. eine Opposition oder Konjunktion, früher für Beobachtungen wichtig, heute für Raumsondenmissionen, denn auch Startfenster wiederholen sich im selben Zeitraum. Die synodische Periode ist leicht berechenbar nach

1/synodische Periode = 1/Umlaufszeit 11/Umlaufszeit 2

Also z.B. für den Mars:

1/synodische Periode = 1/3651/689

Man erhält für die synodische Periode 776 Tage.

Ich wollte den Schreiber nicht beunruhigen, aber es gibt auf anderen Planeten noch größere Differenzen. Auf dem Mars hat der eine Marsmond Phobos eine kürzere Rotationsperiode als der Mars und der zweite Marsmond, Deimos eine leicht aber nur leicht längere. Das führt zu seltsamen Phänomenen. Wir sind gewohnt das die Sonne, Sterne und Mond alle im Osten aufgeht, in die Richtung in der die Erde rotiert (wenn der Nordpol in der Betrachtung oben ist). Das ist so, weil die 24 Stunden der Rotationsperiode der Erde kürzer sind als alle diese Perioden. Phobos braucht keine 10 Stunden um den Mars zu umrunden. Das ist kürzer als die Rotationsperiode von 24,7 Stunden, er „überholt“ so den Mars bezogen auf die Sonne. Phobos geht im Westen auf. So vergehen zwischen zwei Mondaufgängen 11 Stunden und 6 Minuten. Zwischen Mondaufgang und -Untergang dagegen nur 4 Stunden und 18 Minuten, weil er dann auf der Seite der Bahn ist, in der er in die gleiche Richtung wie der Mars rotiert. Deimos hat eine Rotationsperiode von 30 Stunden, etwas länger als ein Marstag. So bleibt er 2,7 Tage am Himmel sichtbar (am Tag und Nacht) und ist dann 2,7 Tage unsichtbar. Mich würde nun interessieren, was mein Email Schreiber dazu sagt, da er ja von den Perioden auf die komplette Falschheit aller Entfernungsangaben schließt. Wenn die Periode wie bei Phobos zwischen Tagseite und Nachtseite unterschiedlich lang ist, folgt daraus eine andere Entfernung, der Mond macht also mit Monduntergang einen Sprung? Und wie ist es, wenn ein Mond wie Deimos 2,7 Tage lang unsichtbar ist, obwohl er doch den Mars in 30 Stunden umrundet? Da sollte er doch nach 30 Stunden wieder auftauchen …

Alles erklärbar denn nach der obigen Formel werden die synodischen Perioden um so länger, je mehr sich die beiden Perioden annähern. Der Extremfall ist der stationäre Orbit, technisch genutzt von einem geostationären Satelliten. Er bewegt sich dann gar nicht mehr über den Himmel, ist von einer Seite der Erde gar nicht mehr sichtbar und von der anderen Seite dauernd.

Wenn das übrigens einem Planeten passiert, solche Fälle kennt man bei Exoplaneten, dann ist eine Seite des Planeten dauernd der Sonne zugewandt, die andere permanent abgewandt. Die Folge ist das sich die eine Seite sehr stark aufheizt, und die andere Seite sehr stark abkühlt. Bei einer Atmosphäre kann es noch einen Wärmeaustausch geben, wobei wegen des hohen Temperaturunterschieds dann sehr hohe Windgeschwindigkeiten herrschen, ohne Atmosphäre wird, Wärme nur durch Wärmeleitung transferiert und das geht schlecht. So kann eine Seite glühend heiß und die andere eisig kalt sein.

6.2.2020: Trump und die Verschwörungstheoretiker

Da ich derzeit wieder mit jemanden kommuniziere, der offensichtlich der Meinung ist alles besser zu wissen als Generationen von Astronomen und Technikern drängt sich mein Thema für heute praktisch auf. Ich vermute mal, keiner meiner Blogleser hat mangels Website, die sich mit Raumfahrt beschäftigt, es jemals mit einem Moon Hoaxer oder anderen Verschwörungstheoretiker zu tun gehabt, auch wenn man durch Interviews die in der Heute-show oder Extra 3 erscheinen, man ahnen kann wie diese Leute ticken. Aber ich will es mal aufdröseln und beim Nachdenken fiel mir auf, dass es doch beträchtliche Parallelen zu Trump gibt.

Das Universalgenie

Ein sehr wesentliches Merkmal eines Verschwörungstheoretikers ist, das er ein Universalgenie ist, oder es in zwei abgewandelten Zitaten zu formulieren: „Ich denke, also weiß ich es besser“ (Descartes) und „Ich weiß, das ich alles weiß“ (Sokrates). Der Verschwörungstheoretiker weiß alles, vor allem aber alles besser. Er ist der selbst ernannte Experte für das Gebiet, weiß aber auch sonst über alles Bescheid. Dabei muss er von dem Fachgebiet keine Ahnung haben, denn er ist der Überzeugung das man alleine durch Nachdenken, ohne sich in so was Lästiges, wie Grundlagenwissen anzueignen alles beurteilen kann. Die Moon Hoaxer die durch ihre Bücher Geld verdienen, haben so illustre Berufe wie Tischler, Journalist und Drucksetzer. Das sind natürlich die besten Voraussetzungen um etwas zu beurteilen, denn so wird man nicht durch Vorwissen im Denken eingeschränkt. Gut das auch Trump intelligenter als die meisten anderen ist.

Selektive Wahrnehmung

Einen Verschwörungstheoretiker zeichnet aus, dass er nur Teile einer bestimmten Sache betrachtet. Bei der Mondlandungsverschwörung werden z.B. die Fotos nach Widersprüchen die zur Theorie passen untersucht. Andere Fotos werden ignoriert, ebenso komplett andere Quellen wie z.B. die Zehntausende von Reporten im NTRS, Sprechfunk etc. Ebenso macht er keinen Unterschied bei den Sekundärquellen, sofern sie in sein Konzept passen. Ich bin ja gewohnt, wenn ich etwas lese, die Qualität der Quelle zu beurteilen. Es macht einen Unterschied, ob ich etwas in einer Webseite einer Privatperson lese, auf Wikipedia oder in Science oder Nature. Für einen Verschwörungstheoretiker gibt es diese Unterschiede nicht, es gibt nur zwei Kategorien der Qualität von Quellen: Sie unterstützen die Theorie, dann kann der Autor jeden x-beliebigen Beruf haben. Oder sie unterstützen die Theorie nicht, dann ist es, egal ob die Person ein ausgewiesener Fachmann für das Gebiet ist, denn sie ist dann automatisch Bestandteil der Verschwörung. Vor allem aber sucht der Verschwörungstheoretiker nur nach Quellen, die seine Behauptung stützen. Alle anderen werden ignoriert, selbst wenn er drauf stößt.

Von Trump ist bekannt, das er unzählige Personen als unfähig bezeichnet hat und auch er bezieht seine Informationen vor allem aus einem fragwürdigen Medium: Fox News.

Die Aufdringlichkeit

Kennzeichnend für einen Moon Hoaxer und allgemein für einen Verschwörungstheoretiker ist die Aufdringlichkeit und das Fehlen von normalen Umgangsformen. Ich bekomme etliche Mails, in denen ich nur beschimpft werde. Bei denen die „Diskutieren“ wollen, soll ich als Privatperson ihnen etwas „beweisen“. Gerne wird auch als Beweis angeführt, dass Raumfahrtagenturen nicht auf Emails reagiert haben. Der Verschwörungstheoretiker erwartet das ihm andere alles erklären, was er nicht versteht oder als Beweis ansieht. Tut man das nicht fühlt er sich bestätigt, auf die Idee das andere schon Erfahrungen mit dieser Personengruppe gemacht haben und gar nicht erst antworten bzw. die meisten Privatpersonen gar nicht erst auf Mails antworten in denen sie völlig fremden seitenweise und damit auch arbeitsintensiv etwas erklären sollen, was man leicht im Internet nachlesen kann oder sogar in der Schule vermittelt bekommt.

Wenn man tatsächlich antwortet und das Argument entkräftet, wird dann einfach etwas anderes als neuer Beweis angeführt. Das erinnert ein wenig an das geozentrische Weltbild. Als man mit der Annahme von Kreisen der Planeten und der Sonne um die Erde die Bahnen nicht erklären konnte, führte man auf diesen Kreisen weitere Kreise ein, und dann wieder neue usw. (Epizykeltheorie). Nur die Grundannahme wechselte man nie.

In jedem Falle haben sie, vorsichtig formuliert, einen rauen Umgangston. Mindestens unterschwellig hört man zwischen den Zeilen raus, das alle die ihren offensichtlich richtigen Argumenten nicht folgen, dumm oder Bestandteil der Verschwörung sind. Die Urheber dieser Verschwörung bleiben übrigens immer diffus. So wird oft von den „Eliten“ gesprochen. Das komische ist das für mich „Elite“ ein positiv besetztes Wort ist. Es gab mal eine Hausmarke von Kaufhof namens „Elite“, in einem gleichnamigen Computerspiel, das ich wirklich viel gespielt habe, war das höchste Level das man erreichen konnte auch „Elite“. Und mir fällt sofort ein, dass man in kommunistischen Ländern alle systemkritischen Personen als „Intelligenz“ bezeichnet – ebenfalls bei mir positiv besetzt woraus ich schloss, dass jeder der dort intelligent ist, systemkritisch sein muss und der Großteil des Volkes inklusive aller Parteimitglieder dann das Gegenteil von Intelligent sein muss.

In jedem Falle findet man in der Argumention bald Kraftausdrücke. Es scheint, als meinen die Verfasser, das ein Argument alleine nicht reicht, sondern man es durch einen Kraftausdruck verstärken muss oder wahlweise auch etablierte Argumente der Gegenseite so herabsetzen muss. Ich kann nur rätseln warum. Die für mich offensichtlichste Erklärung ist, dass dies in der sozialen Schicht aus der die Verschwörungstheoretiker entstammen so üblich ist. Und fallen einem dann nicht sofort Trumps Tweets mit Beleidigungen, Superlativen und vielen GROSS GESCHRIEBENEN WÖRTERN ein?

Die Wiederholung

Von Göbbels stammt die Aussage, dass man eine Lüge nur oft genug wiederholen muss, dann wird sie irgendwann einmal geglaubt. So meinen auch Verschwörungstheoretiker, sie müssten ihre Behauptungen wiederholen. Manche schaffen nicht mal eine Befragung auf einer Demo, von der einige Sekunden übertragen werden, ohne sich zu wiederholen. Die Wiederholung ist ein starkes Mittel, nicht umsonst ist ein wichtiges Element vieler Religionen das man einen Text dauernd wiederholt. Das funktioniert nämlich nicht nur bei anderen, sondern primär bei einem selbst. In der normalen Wissenschaft ist es anders. Eine Theorie kann noch so toll sein so oft in einem Lehrbuch stehen, wie sie will, sobald es nur eine Tatsache gibt die gegen sie spricht muss sie zumindest verändert werden – nach Verschwörungstheoriekern ist sie ja dann schon komplett ungültig, aber das ist eben selten der Fall, vielmehr ist es oft so das eine Theorie für einen bestimmten Bereich anwendbar ist und für einen anderen nicht. So reicht Newtons Gravitationstheorie für alle Geschwindigkeiten die man heute mit der Raumfahrt erreicht vollständig aus. Für Quasare und Schwarze Löcher braucht man aber Einsteins Theorie. Ebenso gab es geschichtlich mehrere Atom- und Molekülmodelle, die jeweils ihre Daseinsberechtigung haben. Für viele einfache chemische Reaktionsgleichungen reicht z.B. das Valenzmodell vollkommen aus.

Anders beim Verschwörungstheoretiker. Er kann nicht akzeptieren, das schon ein widerlegtes Argument von ihm zeigt, dass er auf dem Holzweg ist, er schiebt dann weitere „Argumente“ nach oder Stützbehauptungen. Natürlich arbeitet auch Trump mit der Wiederholung. Wie oft hat er vor und nach der US-Wahl behauptet, dass Briefwahl einen Wahlbetrug ermöglicht?

Die Diffamierung

Gleitend ist der Übergang von Kraftausdrücken und Unterstellung zur Diffamierung. Die meisten Mails, die ich zu dem Thema bekomme, sind gar nicht an einer Diskussion interessiert, sondern beginnen mit Beleidigungen, weil den Briefschreibern offensichtlich nicht das gefällt, was sie auf meiner Website gelesen haben. Aber auch wenn es anfangs eine Diskussion gibt, dann kommt es oft früher oder später zu einer Beleidigung. Ich werde nun mangels Prominenz nicht öffentlich diffamiert, wohl aber andere. So bei der Mondlandungsverschwörung alle Astronauten. Und fühlt man sich nicht an Trump erinnert, der gefühlt in jedem zweiten Tweet irgendjemanden, egal ob politischen Gegner, ehemaligen Angestellten oder ein Land oder andere Staatsoberhäupter beleidigte?

Autokratie à la Verschwörungstheoretiker

Verschwörungstheoretiker haben ein ausgeprägtes Ego. Wie ich schon im Kapitel über das Universalgenie schrieb, wissen sie ja alles, vor allem alles besser. Die meisten Menschen würden aber, selbst wenn sie sich einer Sache sicher sein, doch ins Nachdenken kommen, wenn alle anderen anderer Meinung sind, und ich rede mit anderen nicht von der Bevölkerung, sondern Fachleuten, Lehrbücher, angewandter Technik. Die Person, mit der ich gerade zu tun hat, hat aus der Tatsache geschlossen, dass die Entfernungen im All alle falsch sind, dass auch bestimmte Satelliten nicht existieren. Komischerweise nur die über dem GEO Orbit, weil man bei denen darunter, ja durch die Nutzung von GPS, Satellitenbildern und übertragenem Fernsehen schlecht leugnen kann, das es sie nicht gibt. Das gilt allgemein. Wenn die Entfernungen nicht stimmen, dann haben sich eben Generationen von Astronomen geirrt. Wenn darauf natürlich die Ordnung des Universums aufbaut, da ja die Gravitationskraft mit der Entfernung abnimmt und damit Prozesse wie die Kernfusion im Inneren von Sternen, Bildung schwarzer Löcher und Pulsare, ob ein Planet eine Atmosphäre halten kann oder nicht und nicht zuletzt, ob sich das Weltall ausdehnt oder nicht, dann muss das natürlich auch alles falsch sein! Es gibt nur eine Tatsache und die hat eben ein Fleischermeister herausgefunden, weil Millionen von Astronomen, Lehrern, Hobbyastronomen dies über Jahrhunderte nicht geschafft haben. Das ist die Autokratie der Meinung. Ebenso ist bekannt das Trump von seinen Überzeugungen nicht abrückt, selbst wenn man beweist, dass sie falsch sind.

cui bono

Zumindest nach der Berichterstattung soll ein wesentlicher Teil von Verschwörungen sein, dass sie das Prinzip des cui bono anwenden. Also wem nützt die (angebliche) Verschwörung. Wie man am lateinischen Zitat sieht, stammt das aus der Antike. Cicero benutzte es bei einem Gerichtsprozess, bei dem man damals überzeugen musste. So etwas wie eine Kriminaltechnik gab es ja damals nicht. Bei einem Verbrechen ist das auch naheliegend und drückt sich darin aus, dass Polizisten bis heute zuerst nach einem Motiv suchen. Verschwörungstheoretikern sollen das Prinzip auf ihre Theorien anwenden. Ich meine das für die meisten geschichtlichen Ereignisse cui bono nicht anwendbar ist, außer es ist die Tat von Einzelpersonen. Wem nützt es, das der Erste Weltkrieg ausbrach? Selbst bei den Anschlägen des 11. September finde ich die Argumentation ziemlich löcherig. Demnach soll die US-Regierung ja die Anschläge selbst begangen haben, um einen Krieg anfangen zu können. Nur hat man ein Jahr später den Irakkrieg gar nicht mit Terroranschlägen begründet sondern der Produktion von Massenvernichtungswaffen und dafür reichten undeutliche Satellitenaufnahmen und selbst gezeichnete Grafiken aus. Tausende umzubringen nur um einen Krieg zu beginnen, zeugt schon von enorm viel Menschenverachtung, und wie man von der US-Politik in diesem Jahrhundert weiß, benötigen die gar keinen Anlass um Staaten zu überfallen (Annektion von Kuba, Philippinen, Überfall auf Granada und Panama, Eintritt in den Vietnamkrieg). Das sagt eher ziemlich viel über das Weltbild der Verschwörungstheoretiker und auch ihr Menschenbild aus.

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99