Musks KI-Rechenzentren im Orbit

Loading

Bei meinem regelmäßigen Besuch des Space Reviews stieß ich auf diesen Artikel: SpaceX, orbital data centers, and the journey to Mars. Ich hatte in meiner Nachlese schon erwähnt das Elon Musk, nachdem er dies lange verschoben hat nun plant SpaceX an die Börse zu bringen. Ich meinte aber, das läge am Starship, das kommt ja nicht vorwärts und es kostet die Firma wahrscheinlich viel Geld. Der interessanteste Teil und der Anlass für diesen Artikel ist diese Passage:

“Satellites with localized AI compute, where just the results are beamed back from low-latency, sun-synchronous orbit, will be the lowest cost way to generate AI bitstreams in <3 years,” … “And by far the fastest way to scale within 4 years, because easy sources of electrical power are already hard to find on Earth,” he added. “1 megaton/year of satellites with 100kW per satellite yields 100GW of AI added per year with no operating or maintenance cost, connecting via high-bandwidth lasers to the Starlink constellation.”

Weiter unten steht dann noch das Jeff Bezos ähnlich denkt. Also es wird ernsthaft behauptet einen Satelliten mit Zig KI-Karten in den Orbit zu schicken und über Starlink ans Internet anzubinden wäre billiger als ein Rechenzentrum auf der Erde aufzubauen. Das Problem das ist der enorme Strombedarf dieser Karten. Eine H100 SXM4 von Nvidia hat einen Strombedarf von 700 Watt, in einem Rack können Dutzende dieser Karten stecken. Klar gibt es im All mehr Energie pro Quadratmeter Fläche und sie ist auch vorhersehbarer, nicht vom Wetter abhängig, trotzdem hätte ich gemeint das wenn man diese Anlagen an einem Offshore-Windpark (relativ konstanter Wind, genügend Wasser zur Kühlung) oder in Skandinavien die heute schon einen Großteil des Strombedarfs durch Wasserkraft decken baut, dies günstiger wäre. Ideal wäre wohl Island – Strom kann man durch Geothermie erzeugen, die ist immer vorhanden und es gibt genügend kaltes Wasser für die Kühlung.

Aber man kann ja mal recherchieren und überlegen. Ich gliedere den Beitrag daher mal in drei Teile: Anforderungen , also was muss alles in den Satelliten rein, welche Probleme gibt es, technische Beurteilung und wirtschaftliche Beurteilung. Als Beispiel KI Karte für die Berechnungen und Beurteilung habe ich die Nvidia H100 herausgesucht.

Anforderungen

Musk will natürlich das Starlinknetz nutzen. Das kann man, muss man aber nicht. Bei einer genügend hohen Umlaufbahn (dazu komme ich noch) hat man auch so genügend Bodenstationen, die erreichbar sind – gerne vergessen wird das Starlink ohne Bodenstationen nicht funktioniert und die müssen regional verfügbar sein. Das Starlink eine Zeitverzögerung addiert, halte ich für unproblematisch denn KI-Anwendungen holen ja Daten aus dem ganzen Web und die können durchaus auch auf einem anderen Kontinent liegen. Ich habe kein Ahnung wie viele Daten man so braucht, aber für ein Rack mit 32-64 Karten werden 2-4 Links mit je 400 GBit/s genannt. Bei 100 kW pro Satellit und 700 Watt pro Karte müssten so etwa 140 H100 im Satelliten stecken, mithin eine Anbindung mit insgesamt 3500 GBit/s. Die derzeitigen Starlink Mini Satelliten können maximal 100 GBit übertragen. Man wird also etliche Satelliten gleichzeitig ansprechen müssen, die sich in einem Orbit befinden und so nicht alle gerade da sind, wo man sie haben will.

Kühlung: Die GPUs wandeln die 700 Watt Stromaufnahme in 700 Watt Wärme um, die muss abgeführt werden. Das geht auf der Karte erst mal wie bei einem PC über Kühlkörper wobei beim Weltall die Luftkühlung mangels Luft ausscheidet aber eine Flüssigkeitskühlung geht. Wärme kann man im All leicht über Radiatoren abgeben die man auch auf die Schattenseite der solaren Stromversorgung legen kann, dort ist es sehr kalt. Die größten Radiatoren die ich kenne, sind die der ISS. Jeder einzelne wiegt 106,7 kg und kann 6 kW/Orbit Wärme abführen und braucht 275 Watt an Leistung.

Dann brauchen wir eine Stromversorgung. Es gibt prinzipiell zwei Möglichkeiten: man kann Solarzellen nutzen oder einen thermodynamischen Kreislauf wie den Carnot-Zyklus. So was hat jeder zu Hause: Kühlschränke, Wärmepumpen und Klimaanlagen haben einen solchen oder ähnlichen Zyklus. Ein Kühlmittel nimmt Energie von der Sonne auf, verdampft und vergrößert so sein Volumen. Der entstehende Druck treibt eine Turbine an, die Strom gewinnt, der Energieverlust führt dazu, dass das Kühlmittel sich wieder verflüssigt und es wird erneut eingesetzt. So was wurde für nukleare Reaktoren in den Sechzigern vorgeschlagen, danach wurde es stiller. Man erwog noch den Einsatz bei dem ersten Freedom-Entwurf 1985. Die daraus entstehende ISS nutzt Solarzellen, ich vermute aus zwei Gründen – zum einen wurden Solarzellen deutlich leichter und lieferten mehr Energie pro Fläche und man hat in der Raumfahrt ungern bewegliche Teile wie die Turbine oder als einfachere Konstruktion den Sterling-Motor. Die verschleißen und reparieren kann man nicht. Von der Energieausbeute ist dies auch nicht so attraktiv, typisch ist bei großen Anlagen ein Wirkungsgrad von 33 %, die NASA hat einen Sterling-Motor für RTG entwickelt und der kam auf 25 %. Das ist jetzt nicht viel besser als der Wirkungsgrad von Solarzellen. Anders als bei einem Kraftwerk auf der Erde hat man keinen Fluss, mit dem man das Kühlmittel deutlich abkühlen kann, denn nach der Thermodynamik hängt der Wirkungsgrad von der Starttemperatur, und zwar in Kelvin ab. Da sind Zimmertemperatur aber schon 298 K.

Solarzellen gibt es im Einsatz auch große Arrays. JUICE hat welche mit 85 m² Fläche, Galliumarsendizellen mit 26 % Wirkungsgrad, das sind in Erdentfernung etwa 30 kW Spitzenleistung, sie wiegen 350 kg. Europa Clippers Soalrarrays sind mit 571 kg bei 102 m² Fläche noch größer, liefern aber etwas weniger Leistung bei Jupiter, was aber auch an der höheren Strahlenbelastung liegen kann. Ein Performance-Parameter ist die Leistung pro Kilogramm Gewicht. Die leichtesten Paneele haben eine Leistung von 85 Watt/kg, JUICE legt z.B. bei 85,7 Watt/kg. Die nachträglich installierten ausrollbaren iROSA Paneele der ISS kommen auf 340 kg bei 20 kW Leistung sind mit 58,8 W/kg also schlechter. Spitzenreiter sind Flexarrays von ATK, die es aber nur als Kreis gibt. Sie werden bei der Orion und Cygnus eingesetzt. Diese gefalteten Flexarrays kommen auf 120 bis 150 W/kg, Verfügbar sind maximal 10 m große Arrays, die etwa 50 kW bei zwei Flügeln liefern. Hier sinkt die Leistung pro Gewicht bei großen Arrays auf 100 W/kg bei einer Größe von 30 m und 450 kW Leistung ab.

Dann haben wir noch als Gewichtsfaktor die AI-Karten. Eine Recherche ergab das diese mit Kühlung (die dann wieder an die Serverkühlung abgeschlossen werden muss) 1,2 bis 1,7 kg wiegen. Damit hat man alles zusammen um eine Rechnung zu wagen.

Eine Berechnung

Die KI Karten H100 von Nvidia kosten rund 25.000 Dollar pro Stück, wiegen mit Kühlung 1,5 kg und benötigen 700 Watt an Leistung. Jede einzelne addiert weiteres Gewicht für die Stromversorgung und Kühlung.

SpaceX könnte nun weltraumqualifizierte Solarzellen nehmen. Sie tun dies bei den Dragons aber nicht, sondern verwenden normale für PV-Anlagen aus chinesischer Produktion. Ich vermute, dass ist auch bei Strlrink so, denn die Solllebensdauer von 5 Jahren ist doch für einen Satelliten recht kurz. Ein Problem ist, dass Solarzellen für irdische Anwendungen im All durch die Strahlung und Beschuss mit Ionen und Atomen innerhalb von 6 Monaten bis zu 20 bis 25 % der Leistung verlieren können. Gerade die monokristallinen Siliziumzellen, aus denen praktisch alle irdischen PV-Anlagen bestehen, nehmen besonders stark ab. Untersuchungen von damit ausgestatteten Cubesats ergaben einen Verlust in 6 Monaten um 12,5 % in 300 km Höhe und 7,8 % in 700 km Höhe. Die bei Satelliten verwendeten GaAs oder Triple Junction Zellen verlieren weitaus weniger stark an Leistung. Der Trend ist aber logarithmisch. Also sinkt die Abnahme danach ab. Zum Glück muss der Satellit wegen der Stromversorgung einen sehr erdentfernsten Orbit einschlagen. Je höher desto geringer die Schädigung. (100 kW Leistung werden benötigt die Sonne liefert 1,35 kW/m², der Wirkungsgrad liegt bei solarthermischer Stromversorgung und Solarzellen bei maximal 25-33 % – daraus kommt man auf eine Fläche von 223-294 m², also dreimal mehr als bei JUICE bei einem Fünftel deren Masse)

Schauen wir uns die kommerziell leichtesten Paneele für irdische Anwendungen an. Bei den leichtgewichtigen Paneelen gibt es verschiedene Technologien. Hier ein Vergleich:

Typ Gewicht pro m² Effizienz Kosten pro Watt
Space Grade 4-5 kg 28 – 33 % 50-150 $
Normal Monokristallin 10-15 kg 20 – 26 % 0,14 $
Flexpanels 3,2 kg 15 – 20 % 3,2 $
Dünnfilm 0,8 kg 7 % 4,5 $

Die Normalen Module sind die, die man für ein Balkonkraftwerk einsetzt. Die sind kostengünstig, ein 400 Watt Paneel kostet mittlerweile nur noch 50 Euro, aber schwer. Wenn der ganze Satellit nur aus diesen Paneelen besteht, würden sie maximal 35 kW Leistung liefern. Biegsame Flexpanelle sind erheblich leichter, dafür auch erheblich teurer und Dünnschichtmodule sind noch leichter, nochmals etwas teurer und haben vor allem eine geringere Effizienz – die ist, weil man riesige Flächen braucht, die den Satelliten stark abbremsen von Bedeutung.

Hier mal eine Tabelle für die 100 KW Leistung des Satelliten. Ich habe außen vor gelassen das die „normalen“ Module auch robuster sind, die Module müssen beim Start ja Vibrationen und Beschleunigungen von 5 g aushalten, das dürfte weitere Masse addieren:

Typ Masse Fläche Kosten
weltraumtaugliche Paneele 833 – 1.178 kg 224 – 264 m² 5 – 15 Millionen $
Monokristalline Module 2.840 – 5.550 kg 284 – 370 m² 20.000 $
Fleible Panmeele 1.184 – 1.588 kg 370 – 490 m² 435.000 $
Dünnfilmmodule 840 kg 1.050 m² 612.000 $

Ich komme zu dem Ergebnis, das nur Dünnfilmmodule und die Space Grade Module, die normale Satelliten einsetzen, noch etwas Gewicht für die Nutzlast lassen, denn der Satellit soll ja 1.000 kg wiegen.

Das ist aber nur die Stromversorgung. Nun kommen noch die Radiatoren auf der Rückseite hinzu. Bei den Daten der ISS-Radiatoren sind dies für 100 kw Abwärme 304 m² Fläche, 1.778 kh Gewicht und ein Stromverbrauch von 4,6 kW. Alleine die Radiatoren wären also schon schwerer als der Satellit selbst. Ich denke, es geht auch leichter, so wurden die ISS Solarpanelle ja auch durch neuere leichtere ergänzt, aber da hielt sich der Gewichtsgewinn in Grenzen (28,4 zu 33,6 W/kg). Ich nehme mal großzügig an, das man die Masse auf die Hälfte, 600 kg drücken kann.

Zuletzt haben wir die Karten. 100 kW Leistung haben sie nicht, 4,6 kW gehen ja für die Kühlung ab, ich rechne mit 90 kW, weil wir auch noch Subsysteme des Satelliten und vor allem die Laserübertragung. (Laser haben eine sehr geringe Effizienz). Bei 90 kW kann man 128 Karten verbauen die im Mittel 1,5 kg wiegen, zusammen also 192 kg. Zuletzt brauchen wir ein Gehäuse, Treibstoff, Triebwerke, Kommunikationseinrichtungen, dafür rechne ich mal 300 kg

Im günstigsten Fall haben wir also:

  • 833 kg Solarzellen
  • 600 kg Radiatoren
  • 192 kg Karten
  • 300 kg Satellit
  • 1.925 kg Summe

Also ich weiß nicht wie er das auf 1 t drücken will. Damit wäre eigentlich die Berechnung schon beendet. Pro Karte mit 700 Watt Verlustleistung braucht man für Stromversorgung und Radiatoren 12,5 kg an zusätzlicher Masse, mit den Karten würde ich 15-16 kg Gesamtimpakt pro Karte ansetzen, dann bekommt man in einen 1 Tonnen schweren Satelliten aber nur etwa 60 Karten die weniger als 50 kW Strom benötigen.

Der Orbit

Der Orbit sollte hoch sein. Ich habe für die Berechnung die Starlink Stelliten genommen, da es von diesen genügend Daten gibt. Vom Cape aus gelangen mit der Falcon 9 rund 16,8 t in eine 53 Grad geneigte Umlaufbahn von rund 270 bis 280 km Höhe und 13,8 t in einen 97 Grad Orbit derselben Höhe von Vandenberg aus. Der Geschwindigkeitsunterschied der beiden Orbits liegt bei 343 m/s. Wenn man 900 km Bahnhöhe anstrebt, hat man mit 336 m/s (relativ zum 53 Grad 270 km Orbit) bei einem Hohmanntransfer die gleiche Geschwindigkeitsdifferenz. Ich kann ich die Nutzlast einer Falcon 9 für einen 900 km hohen Orbit mit 13,8 t annehmen.

Das starship ist außen vor, denn dessen Nutzlast kennt man nicht, erst recht nicht für den höheren Orbit, den man wegen der großen Fläche braucht und es ist ja auch nicht einsatzbereit. Die Fläche ändert sich übrigens auch bei solartermischer Stromversorgung nicht wesentlich, sie wird alleine vom Wirkungsgrad bestimmt.

Ich habe also einen 900 km hohen Orbit angesetzt. Normalerweise wäre der für lange Zeit stabil, ich habe alle Satelliten meiner Datenbank abgesucht, es gibt keinen der in einem mindestens 800 km hohen Orbit war und von alleine seit seinem Start verglüht ist (es gab einige, die wurden aktiv deorbitiert). Aber machen wir doch mal eine Simulation. 304 m² Fläche brauchen wir für die Radiatoren und auch der Flächenbedarf für Solarzellen liegt um diese Fläche herum. Wie sieht es mit der Lebensdauer in einem 900 km Orbit aus?

Die Grafik zeigt zwei Kurven. Einmal die Annahme , es wäre dauernd Sonnenminimum und einmal es wäre Sonnenmaximum. Aber selbst dann würde der Satellit mindestens 17 Jahre im Orbit bleiben. Real irgendwo zwischen beiden Kurven. Man kann also näher an die Erde heran. Ich habe nun getestet bis er mindestens 5 Jahre im All bei Solarmaximum bleibt – nach den obigen Ergebnissen rechnet Musk ja nach einer Amortisation nach 3 Jahren und die Starlink Satelliten leben auch nur 5 Jahre und in 790 km Höhe würde er sich 5 Jahre halten können.

Die Lebensdauer wäre mit einem Ionenantrieb noch steigerbar. Ein hoher Orbit ist aber auch aus anderer Sicht sinnvoll: sowohl solarthermisch wie solarelektrisch bekommt der Satellit nur Strom, wenn er nicht im Erdschatten ist und der Anteil am Orbit wird um so kleiner je höher der Orbit ist, bei 780 km sind dies 34 % der Umlaufszeit bei 900 km Höhe 35 %. Vor allem wird bei Solarzellen die Schädigung um so geringer je höher der Orbit ist. Wesentlich interessanter ist, dass je höher der Orbit ist, um so weniger Bodenstationen braucht man wenn man nicht Starlink nutzt. Bei 790 km Höhe sind 33,8 Millionen km² in der Zone die vom Satelliten aus erreichbar ist. In 900 km Höhe sind es schon 38 Millionen km². Real weniger, weil der Satellit für einen stabilen Empfang einige Grad über dem Horizont sein muss. Bei einer Gesamtoberfläche der Erde von 513 Millionen km² würden also zwei Dutzend gleichmäßig verteilte Bodenstationen ausreichen, um die Daten zu empfangen und man bräuchte kein Starlink. Das halte ich für die Datenrate nicht für ausreichend. Jeder der KI-Satelliten belegt die gesamte Datenrate von 100 GBit/Satellit von 32 Satelliten. Das wird wohl bei 1 Million Satelliten nach Musk schlecht gehen. Ich habe aber auch Zweifel, ob man die Datenrate zu einer Bodenstation übermitteln kann, selbst mit Lasern. Die nutzen bei Wolken aber gar nichts. ViaSat-3 F2 (Americas) ist mit 1 Terabit/s der derzeit leistungsfähigste Satellit und der hat nur 1/3 der benötigten Kapazität.

Gut alles wird besser, wenn man nicht Musks Vorstellungen sondern realistische Abschätzungen macht, also pro Tonne Satellit nur 60 Karten, das halbiert auch die Solarzellenfläche, ein 730 km hoher Orbit ist dann ausreichend lange stabil.

Wirtschaftlichkeit

Ich gehe jetzt von den realen 1.925 kg für den 100 kW Satelliten aus. Davon kann eine Falcon 9 nur 7 mit einem Start transportieren. Der Start kostet derzeit rund 10 Millionen Dollar pro Satellit. 128 NVidea H100 Karten kosten weitere 3,2 Millionen Dollar, die Solarzellen als Dünnschichtmodule nur 0,6 Millionen Dollar, als Space-Grade 5-15 Millionen Dollar. Was die Radiatoren und der Satellitenkörper und die Hochleistungssendeanlage die 3200-mal besser als die eines Starlink Satelliten sein muss, kosten kann man nur abschätzen, aber Summa-summarum ist ein Satellit meist nie billiger als der Start. Bei den Starlinksatelliten geht man davon aus das sie durch die Serienfertigung in etwa so viel wieder Start kosten, dann wären wir bei 20 Millionen Dollar pro Satellit. Angesichts der verbauten Hochtechnologie eher mehr.

Offen ist auch ob die Nvidia Karten überhaupt geeignet sind. Derzeit kommt in Satelliten Hardware zum Einsatz die zum einen strahlen-gehärtet ist vor allem aber in einer Fertigungstechnologie entsteht die Jahrzehnte alt ist. OBC für Cubesats (space grade) die ja auch preiswert sein müssen, setzen eine ARM Cortex M4 oder M7 CPU mit 240 bis 480 MHz ein. Der M7 wird aktuell in 28 nm Technologie gefertigt und hat ~ 10 Millionen Transistoren pro Chip. Eine H100 wird in 4 nm Technologie gefertigt und hat 80 Milliarden Transistoren pro Chip (die auch größer sind). Ich halte es für wahrscheinlich das sie ohne zusätzliche, schwere Abschirmung schnell ausfallen. Zum Vergleich: 480 MHz erreichte schon ein Pentium III und die 28 nm Technologie entspricht bei Intel der Sandy Bridge Mikroarchitektur (icore-2xxx), wobei der Vergleich unfair ist denn Intels Prozessoren haben viel größere Prozessor-Die und damit mehr Transistoren pro Chip. (45 bis 60 pro Kern, mit 4 Cores und Caches bis zu 995 Millionen).

Wirtschaftlicher Unsinn

Ich mache mal eine Gegenrechnung: Zuerst ein analoges Vorgehen auch wenn es sinnlos ist. Wir bauen ein Gebäude in einem Gebiet mit viel Sonnenschein (Wüstengegenden 2500-2800 kW ertrag/m²), stecken dort ein Rack rein und installieren eine PV-Anlage aus normalen monokristallinen Solarzellen. Das Ganze am Meer, dann kann man mit dem Wasser kühlen. Geeignete Gebiete wie die Namib oder arabische Halbinsel gibt es genug. Die Kosten für normale Solarzellen fallen kaum ins Gewicht, selbst wenn man noch die Installation betrachtet. Das teuerste ist hier wirklich die KI Hardware. Rechnet man zu den 3,2 Millionen Dollar für 128 Karten noch 0,8 Millionen für Gebäude, Solaranlage etc hinzu so ist man bei 4 Millionen Dollar, ein Fünftel der Kosten. Das ist pessimistisch gerechnet, denn 128 Karten passen in 2 bis 4 Racks, die man auch in einer Besenkammer unterbingt.

Natürlich ist der Ertrag an Energie geringer. In einem 900 km Orbit entspricht der Jahresertrag pro kW installierter Leistung etwa 5700 kWh. Auf der Erde sind es nur 2.500 bis 2.800 kWh. Aaaber – dem doppelten Ertrag stehen fünffach höher Kosten gegenüber.

Vor allem kann ich bei einer irdischen KI-Farm jederzeit etwas reparieren, relativ einfach eine Internetverbindung herstellen und sie hat das Potenzial länger zu arbeiten. (die Leistungsabnahme der Paneele habe ich nicht mal in der Rechnung einbezogen). Das wird bei KI-Anwendungen keine Rolle spielen, weil es in 5 Jahren wahrscheinlich Hardware gibt die mit dem gleichen Strom schneller rechnet, aber die kann ich dann austauschen, das kann ich im Satellit nicht.

Aber eigentlich geht es noch viel billiger. Ich gehöre ja auch zu den Leuten, die etwas kaufen anstatt zu mieten, auszuleihen oder zu leasen. So habe ich nur während meiner Studienzeit mir Bücher aus einer Bibliothek ausgeliehen. Aber dieser Vorschlag toppt das bei weitem. Schauen wir es uns doch mal ganz nüchtern an:

Eine KI-Karte braucht selbst mit Kühlung wenig Platz. In ein Standard-Rack, etwa so groß wie ein mannshoher Kühlschrank, passen 32 bis 64 Stück, selbst mit Kühlung würden alle 128 eines Satelliten in einen kleinen zweitürigen Kleiderschrank passen. In einer Gebäudeetage eines Industriegebäudes würden viele, wahrscheinlich Hunderte dieser Kabinette passen. Das ersetzt dann hunderte von Satelliten. Bei der Inkubationsdauer von wenigen Jahren macht es auch keinen Sinn das Gebäude zu errichten oder zu kaufen, man mietet. Ebenso macht jede Art von eigener Stromerzeugung egal, ob im All oder auf der Erde keinen Sinn, wenn man von einer Abschreibungsfrist von 3-4 Jahren redet. Der Industriestrompreis beträgt in Deutschland rund 14 ct/kWh. In Norwegen ist er wegen der Wasserkraft mit 10 ct billiger und in den USA wo es keine CO₂-Abgaben gibt, liegt er bei 8 ct/kwh. 128 Karten die 24/7 laufen (übrigens auch ein Punkt: Mindestens 1/3 der Zeit werden sie im Orbit nicht rechnen können) verbrauchen in 4 Jahren, der oberen Amortisationsgrenze 3.139.584 kWh, runden wir wegen der Kühlung auf 5 MWh auf. 5 MWh Strom kosten je nach Land zwischen 400.000 und 700.000 Euro. Das ist wenig verglichen mit den Kosten für die Karten die 3,2 Millionen Dollar kosten, deswegen gibt es auch zwei milliardenschwere Bauen von KI-Farmen in Deutschland, denn bei den Hardwarepreisen ist der teure Strom in Deutschland nicht der Kostentreiber. Um also die Raummiete von einigen Quadratmetern und die viel höheren Kosten für Strom einzusparen starte ich einen Satelliten der 20 Millionen Euro kostet, nur 2/3 der Zeit arbeitet und bei dem ich nichts reparieren oder austauschen kann und der nur einige Jahre lang arbeitet.

Meiner Ansicht nach macht dieser kuriose Vorschlag nur einen Sinn: Kunden für Starlink und Falcons zu beschaffen. 1 Million Satelliten erfordern weit über 100.000 Falcon 9 Starts, selbst mit dem Starship wirds viel, auch weil dessen Nutzlast mit steigender Bahnhöhe gravierend abnimmt. Und Starlink ist für kommerzielle Kunden, nur diese bekommen eine Bandbreite und Verzögerungszeit zugesichert, teuer: Für 10.000 Terminals gab die Biden-Regierung im ersten Kriegsjahr in der Ukraine 400 Millionen Dollar aus, also rund 40.000 pro Terminal/Jahr. Derzeit verlangt SapceX beim Einsatz auf Flugzeugen, wohl die am besten zu vergleichende Option 10.000 $/Monat und sichert nur 135-310 MBit im Download und 20 bis 44 MBit im Upload zu. 1 Karte kann aber eine Datenrate von bis zu 25 Giga (nicht Mega) Bit benötigen. Bedenkt man das die obere Bandbreite der Karten 32 Starlinksatelliten voll auslastet, reicht das gesamte derzeitige Netz nur für etwa 300 Satelliten.

Es muss schlecht um Starlink stehen, wenn es solche Vorschläge von Musk gibt die das Netz nutzen. Denn es gab auch diese Meldung;: Musk erwägt den Kauf von Ryanair, weil die kein Starlink einsetzen würden – es würde sie 250 Millionen Dollar pro Jahr kosten und die Kunden würden nicht für diesen Service zahlen wollen. Also wenn ich eine Fluggesellschaft für 30 Milliarden Dollar kaufen muss, nur damit ich noch an Kunden komme, dann ist Starlink wohl doch nicht so der Renner.

Okay, das war ein langer Artikel mit vielen Berechnungen aber ich denke es macht keinen Sinn ihn in zwei oder mehr Teile zu splitten. Wer bis hierhin durchgehalten hat gehört zumindest nicht zu PISA-Generation.

One thought on “Musks KI-Rechenzentren im Orbit

  1. ich will ja nicht meckern und langweilig sein: aber so einfach über Milliarden scherzen („dann kaufe ich eben RyanAir“) finde ich einfach, nun ja, widerlich. Das ist viel Geld, mit dem man gute Sachen machen könnte. Aber na jut…

    Rechenzentren im All: oh je. Bei Starlink sehe ich ja irgendwie einen Sinn, aber hier: WARUM? Klar, man braucht immer weiter frisches Geld, zwar nicht nur Starts, es geht nur um frisches Geld. Danke für deine Berechnungen, aber selbst ohne diese: Oh je.

    PS: was soll eine PISA-Generation sein? Es gibt sehr viele tolle junge Menschen. Und wenn man noch die SocialMedia-Dinge wie in Australien verbietet, werden sie toller als wir. Hoffe ich jedenfalls, ist ja die Zukunft.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.