Gedanken zu GoogleSpaceX und OneWeb

Ich bekam eine Mail, in der ich aufgefordert wurde mich mit den sogenannten „Nanosatelliten“ zu beschäftigen. Darunter versteht der Schreiber die Konzepte von OneWorld und GoogleSpaceX. (steht hier in diesem Artikel für den Plan von Google mit SpaceX als Auftragnehmer ein Satellitensystem aufzubauen). Mal abgesehen davon dass Bezeichnungen wie „Nanosatelliten“ sich auf eine Gewichtsklasse beziehen und nicht auf eine Missionsauslegung (es gibt mit derselben Masse auch Erdbeobachtungssatelliten und Forschungssatelliten) heißt die Klasse von über 50 bis 300 kg eigentlich Mikosatelliten. Zumindest definiert Arianespace das in ihren Usermanual so.

Nun im Detail will ich mich damit nicht befassen, weil es zu wenig Informationen darüber gibt, kein einziges System ist bereits gestartet und die existierenden erdnahen Kommunikationssatelliten wie Iridium oder Globalstar sind um einiges schwerer. Aber ich will mal einige Spekulationen anstellen wie das System funktionieren könnte. An Daten gibt es sehr wenig:

  • OnWorld wird 650 Satelliten umfassen, GoogleSpaceX wahrscheinlich 4257 Satelliten in 43 Orbitalebenen und zwei Bahnhöhen
  • Die Bahnhöhen betragen 1100 kg bei OneWeb und 1200 km bei GoogleSpaceX
  • Beide Systeme nutzen Ka und Ku Band, GoogleSpaceX getrennt in zwei Flotten.
  • OneWebs Satelliten sollen 125 kg wiegen, GoogleSpaceX „mehrere Hundert Kilos“
  • Satellitenterminals sollen bei OneWeb bis zu 50 MBit/s übertragen, der Satellit 8 GBit/s
  • Ziel zumindest bei GoogleSpaceX ist es 10% des weltweiten Traffics direkt vom Sender zu übertragen und >50% des Backboneverkehrs über große Distanzen.

Insbesondere die letzte Aussage bringt mich ins Grübeln. Wir kennen ja schon Internet über Satellit und Systeme im erdnahen Orbit zur Kommunikation. Derzeit verläuft Internet über geostationäre Satelliten so: Jemand kauft sich eine spezielle Parabolantenne mit Empfänger oder rüstet seine bestehende Satellitenempfangsanlage um. Er empfängt nun die Daten über den Satelliten, sendet aber (in der ersten Generation) die Anforderungen (Upstream) über die Telefonleitung, wahrscheinlich weil man sonst starke Sender bräuchte und der Satellit Probleme hätte die gleichzeitigen Signale verschiedener Sender auseinanderzuhalten und zu verarbeiten. Das ist eine Lösung für Gegenden in denen es Internet über Telefon gibt, aber es zu langsam ist. Diese Lösung hat auch den Vorteil das eine Antwort nur einmal über den Satelliten geht, der aufgrund seiner Position eine hohe Latenz hat (er befindet sich 36000 km über dem Äquator).

Der Nutzer profitiert von einer höheren Bandbreite als mit ISDN, wenngleich sie nicht mit denen von VDSL mithalten kann. Er bezahlt den Preis einer großen Latenz (ein Signal legt Minimum 80.000 km zurück, das sind 0,4 Sekunden Verzögerung bei Lichtgeschwindigkeit). Vor ein paar Jahren war diese Technologie eine Alternative in ländlichen, schlecht versorgten Gebieten, inzwischen erreicht man dort wahrscheinlich dieselbe Datenrate mit Mobilfunk (LTE). Es war keine Technologie für Sauger, denn die Datenmenge war begrenzt, was bei den Investitionskosten für Satelliten auch klar ist.

Inzwischen gibt es speziell für diesen Zweck gebaute Satelliten, die erste Generation nutzte normale Kommunikationssatelliten die auch den Upload verarbeiten. ViaSat-1 hat eine Kapazität von 140 GBit/s, Er erlaubt Download mit 12 MBit/s und Upload mit 3 MBit/s. Das System (mit wahrscheinlich weiteren Satelliten) soll 8-10 Millionen Nutzer versorgen und kostet ab 50 Dollar/Monat aufwärts. Klar ist, das selbst bei 10 Satelliten nur ein kleiner Teil der Nutzer die volle Bandbreite nutzen können, etwa 120.000. Geht auch der Upload über den Satellit so muss die Entfernung Erde-Satellit viermal passiert werden (jeweils zweimal beim Up- und Downstream) und die Latenz ist nochmals doppelt so hoch.

Dann gibt es schon erdnahe Systeme: Globalstar und Iridium, die jedoch Sprache oder kleine Datenmengen (128 kbit/s Maximum)  übertragen. Diese befinden sich in den Bahnhöhen der geplanten Systeme (Iridium 770 km, Globalstar 1450 km), haben aber viel weniger Satelliten (66 bei Iridium, 48 bei Globalstar). Von ihnen kennt man die Funktionsweise. Man baut eine Verbindung zu einem Satelliten über eine ungerichtete Antenne auf. Der Satellit empfängt das Signal und leitet es weiter. In der Nähe von einer Bodenstation zu dieser, ansonsten zum nächsten Satelliten, bis einer es an eine Bodenstation weitergeben kann. Ein anderes System ist auch für ein weltumspannendes Netz nicht möglich. Denn im Pazifik gibt es Wasserflächen die sehr groß sind und auf denen es keine Insel gibt auf der man eine Bodenstation erreichten könnte, selbst wenn wird diese nicht unbedingt an ein Seekabel angeschlossen sein. Es ist anzunehmen das die geplanten Systeme ähnlich funktionieren.

Das einzige System das man bisher geplant, aber nie umgesetzt hat war Teledesic, das sah 840 Satelliten in 700 km Höhe vor, dann reduziert auf 288 in 1400 km Höhe (24 Satelliten in 12 Bahnebenen, 700 km Fussprint pro Antenne in 700 km Höhe). Ein Satellit wog 120 kg und konnte 720 Mbit zum Terminal übertragen und 100 MBit empfangen. Es gab verschiedene Datenraten, die mit unterschiedlich starken Sendern und unterschiedlichen Antennengrößen erreicht wurden. 64 Sender und Empfänger gab es pro Satellit und die Koordination gab es durch Slots in denen jeweils ein Terminal aktiv sein konnte bevor ein anderes senden dürfte.

Hinsichtlich Zahl, Orbit und Gewicht ist Teledesic mit OneWeb vergleichbar, GoogleSpaceX liegt in der Dimension nochmals höher.

Warum braucht man so viele Satelliten, wenn Iridium und Globalstar mit einem Zehntel bis Hundertstel auskommen? Nun es liegt an den Datenraten. Die Voicebasierten Systeme nutzen wie jedes Handy eine weitgehend ungerichtete Antenne, die Signale aus allen Richtungen empfängt. (Rundstrahlantenne( Sobald der Satellit ein bisschen über dem Horizont gekommen ist (Sicherheitsabstand wegen Bergen und Gebäuden am Horizont und starker atmosphärischer Absorption) kommt eine Verbindung zustande. Bei Iridium sobald der Satellit 8,2 Grad über dem Horizont ist. Da man um keine Bit-Verfälschungen zu haben ein Signal deutlich über dem Rauschen sein muss ist klar, das bei mehr Bits pro Sekunde, dieses Signal-Rauschverhältnis abnimmt auch. Irgendwann reicht es nicht mehr für eine sichere Kommunikation aus, die Zahl der fehlerhjaften Bits wird auch zu groß für Fehlererkennungs- und Korrekturalgorithmen. Die Lösung ist eine höhere Sendestärke (verteuert die Satelliten die nun stärkere Sender haben, mehr Strom brauchen und durch die größeren Solarpaneele und Sender mehr wiegen) oder die Begrenzung des Winkels aus dem man Signal empfängt, indem man eine verstärkende Antenne, z.B. Parabolantenne nimmt. Sie empfängt nur Signale aus einem kleinen Winkelbereich und sammelt diese im Brennpunkt wo der Empfänger sitzt. Hat diese z.B. noch einen Öffnungswinkel von 45 Grad, so deckt sie nur noch 1/13 des Gebietes ab aus dem man bei Iridium empfangen kann (163,6 Grad). Für kostengünstige Terminals ist es zu aufwendig, die Antenne den Satelliten nachzuführen, also wird man sie fix auf den Zenit ausrichten. Dann empfängt man nur noch Daten, wenn der Satellit genau über einen hinwegzieht und nur rund um den Zeitpunkt herum – man braucht dann mehr Satelliten um eine lückenlose Kommunikation zu gewährleisten, da ein jeder nur einen Bruchteil der Zeit den Empfangsbereich der Antenne durchläuft, die er mit einer Rundstrahlantenne empfangbar wäre.

Einen weiteren Nebeneffekt hat die größere Zahl der Satelliten für die Nutzer. Wenn jeder Satellit eine fixe Bandbreite hat, so deckt jeder Satellit ein kleineres Gebiet der Erde ab, Bei Telesdisc z.B. nur Zellen von 160 x 160 km Größe. So verteilt sich die Gesamtdatenrate auf mehr potentielle Nutzer, jeder kann also einen größeren Teil dieser Datenmenge nutzen. (Supergut kommen dann Nutzer auf einsamen Inseln weg).

Die Satelliten werden dann die Daten von Satellit zu Satellit transferieren, bis man einen erreicht der nahe einer Bodenstation ist. Dieser überträgt sie zu dieser, die sie dann wieder ins Internetbackbone einspeist. Die Kommunikation von Satellit zu Satellit ist unproblematisch, da man hier nicht die Atmosphäre als Problem hat. So kann man Frequenzen ausnutzen die durch die Luft blockiert werden und hat keine Probleme andere4 Satelliten oder Services zu stören. Telesdesic nutzte das 60 GHz Band, das erlaubt 4-mal mehr Daten als das Ka-Band und 16-mal mehr als das Ku-Band. Nur die Bodenstationen müssen dann die Daten sehr vieler Satelliten auf einmal empfangen können. Da man hier nur die bekannten Frequenzbänder nutzen kann, werden die dann zum Engpass. Eine Alternative ist es das Signal über jeden Satelliten zu transferieren, bis man einen erreicht der nahe des Zieles is und dieser kontakt es direktt, doch dann verliert man zum einen den Hauptvorteil – durch die geringe Entfernung zum Benutzer eine geringe Verzögerung, zum anderen kann man so nur Nutzer erreichen die auch ein Satellitenterminal haben. Das dürfte also kaum in Frage kommen. Weiterhin passiert ein Signal so im Durchschnitt mehr Satelliten also bei dem Suchen einer Bodenstation, reduziert also die gesamte Bandbreite eines Intersatellitenlinks.

Soweit so gut. Man erhält so ein Netz das tatsächlich globales Internet zulässt. Es gibt aber einige offene Fragen. Die erste und wichtigste ist: Wo ist der Markt? In den industrialisierten Ländern, wo die Leute auch viel Internet nutzen, ist die Abdeckung mit DSL (übers. Telefonnetz) oder Kabel-Internet weitgehend flächendeckend. In den Entwicklungsländern, wo die Versorgung schlecht ist, können sich die Leute wohl kaum Satelliten-Internet leisten, sie verdienen zu wenig. Die 100 bis 300 Dollar pro Terminal sind in vielen Ländern mehrere Monatslöhne und da kommen noch die laufenden Gebühren dazu. Was bleibt sind die Leute die heute in der Pampa (in einem sonst hochentwickelten Land) wohnen und kein schnelles Internet haben und solvent sind, oder Internet das man auch haben will wenn man auf Reisen ist z.B. per Schiff oder Flugzeug. Ich bin nicht in der Materie drin, aber ich würde drauf tippen, das deise Kundschaft nicht ausriecht um diese riesige Flotte zu refinanzieren. Es wäre nichts das erste Mal, auch Iridium konnte nicht die Nutzerzahl gewinnen, die man sich vorstellt und wurde nur durch die Hilfe des US-Militärs gerettet.

Allerdings passt dieses Modell dazu nicht Elon Musks Aussage:

“We’re really talking about something which is, in the long term, like rebuilding the Internet in space,” Musk said. “The goal will be to have the majority of long-distance Internet traffic go over this network and about 10 percent of local consumer and business traffic. So 90 percent of people’s local access will still come from fiber but we’ll do about 10 percent business to consumers directly, and more than half of the long-distance traffic.”  (Quelle)

Er will also nicht Enduser ans Internet anbinden, sondern die „Majoroity of long distance Traffic“ übertragen, also den größten Teil (>50%) des Traffics über große Distanzen. der Begriff „Große Distanzen“ ist dehnbar, aber selbst wenn man darunter Kontinente versteht ist das trotzdem ein ziemlich großer Anteil am Gesamttraffic. Die Server von Facebook, Google und Co stehen z.B., schon in den USA. Vor allem zeigt die Diskrepanz zwischen Local Traffic und Long Distance Traffic, das man damit rechnet das der größte Teil der Daten nicht von Endnutzen kommt sondern Knoten des Backbones, welche die Satelliten nutzen. Diese können sich aber größere Parabolantennen und Sender leisten und könnten so die Satelliten verfolgen, man bräuchte so nicht so viele, es müssten nur mindestens zwei zu jeder Zeit empfangbar sein, damit man keine Unterbrechung hat (eine Antenne verfolgt jeden Satelliten, verliert die erste Antenne den Kontakt so sendet man über die zweite weiter und die erste kann auf einen neuen Satelliten ausgerichtet werden). So kommt man in der Bahnhöhe die anvisiert wird vielleicht auf 100 Satelliten, die man braucht, aber keine 4000.

Selbst wenn Musks rechnet das der meiste Traffic „local“ ist (was allerdings voraussetzt, das der Nutzer dann diesen über eine andere Leitung übertragen kann) und so nicht über die Satelliten transferiert wird, so sind 10% des Gesamttraffics eine Menge. 2012 betrug der Traffic im Durchschnitt 32.000 Petabyte/Monat. 650 Oneweb Satelliten mit je 8 GBit/s würden etwa 40% dessen ausmachen, wenn man sie zu 100% auslasten wird (unwahrscheinlich weil 70% der Fläche der Erde Meer ist mit niedriger Bevölkerungsdichte und auch die Bevölkerung sehr unregelmäßig über die Landmasse verteilt ist). Das Problem nur: Der Traffic wächst seit Jahren um 50%. Bis das System steht (3 Jahre Bauzeit für den ersten Satelliten, 5 Jahre bis der letzte im Orbit ist) wird man rund 86-mal mehr traffic brauchen also 2012, aus 40% Abdeckung werden so 0,5%, selbst wenn GoogleSpace nun mehr Satelliten hat, werden sie weit von 10% Gesamttraffic entfernt sein.

Man wird schlauer werden wenn man das System aufbaut. Die Betonung liegt auf dem Wörtchen „wenn“.

 

9 thoughts on “Gedanken zu GoogleSpaceX und OneWeb

  1. „(unwahrscheinlich weil 70% der Fläche der Erde Meer ist mit niedriger Bevölkerungsdichte und auch die Bevölkerung sehr unregelmäßig über die Landmasse verteilt ist)“

    Machst du hier nicht einen Denkfehler? Wenn die Satelliten als Backbone dienen, spielt es keine Rolle, wenn sie über dem Ozean sind – sie übertragen dann einfach Daten von Satellit zu Satellit – die Konstellation würde gar nicht funktionieren, wenn man keine Satelliten über den Ozeanen hätte!

  2. Wenn ich über Satellit zu Satellit übertrage bis ich an den Empfänger komme, dann wird dieser meistens auch da sein wo Land ist. Die Satelliten über den Ozeanen würden nur den Traffic übernehmen den sie an die nächsten Kontinente übertragen müssen. Sie werden also im Schnitt deutlich geringer ausgelastet sein. Zudem wird viel des Traffics keine großen Distanzen zurücklegen, z.b. bevorzugen die meisten Deutschen deutschsprachige Dienste. Es ist anzunehmen das die Verteilung mit der Kapazität der heutigem Seenetze korreliert und die ist durchaus nicht überall gleich.

  3. Zunächst einmal müssen all diese Satelliten auch zeitgerecht in den Orbit.

    All das wird laut derzeitigen Plänen nur mit wiederverwertbaren Launchern ala SpaceX/Virgin möglich sein. Versagen diese Konzepte, sind diese Satelliten Projekte sofort tot.

  4. Na ja so viel ist es nicht. Bei Oneweb wiegt ein Satellit 125 kg, das sind bei 650 Satelliten rund 81 t in einen SSO oder etwa 100-110 t in LEO. Rechnet man noch Dispenser dazu ist man mit 150 t dabei. Das sind nur 20 bis 25 Starts der Stratolaunch

    Bei SpacEX könnten 15 Falcon Heavy oder 60 Falcon 9 die ganze Sache transportieren und das über einen Zeitraum von 5 Jahren, also druchaus eine Rate die nicht größer ist als die bisherige und man hat ja gerade ein neues Launchpad gelast und einen Weltraumbahnhhof baut man auch auf.

  5. Hm…
    Rein von den Zahlen her wäre das Oneweb-Konzept tatsächlich machbar. Die Frage ist halt, wieviel so ein System tatsächlich Kostet.
    Startkosten sind relativ gut zu kalkulieren, 60 Starts mit der falcon 9 kommen auf 3,6 Mia $
    (Was ein Start mit der Pegasus II kosten wird, steht noch in den Sternen)
    Wieviel wird der einzelne Satellit kosten…. Bei Oridium NEXT kommt ein satellit auf so 20 – 25 Mio Mio $, und signifikant preiswerter wird es nicht werden.Selbst wenn man „nur“ 5 Mios pro Sat rechnet sind das noch mal 3,5 Mias…. also insgesamt 7 Mias sehr viele X

    D.H…. alleine für Zinszahlungen müsste man mit vielen 100 Mio$ pa rechen. (Natürlich, man könnte sagen, dass man das mit sehr viel Eigenkapital finanziert, aber im Prinzip bleibt es sich dann gleich, weil dieses Kapital ja nicht für andere Investitionen zu Verfügung steht)

    Um Wirtschaftlich zu sein, müsste das ganze Unternehmen also einen Gewinn vor Zins und Tilgung (und Steuern :-/ ) von so 1 Mia pa machen… (im besten Fall)
    Das ist ein recht sportliches Ziel…. wenn man bedenkt, dass man ja auch eine gewisse Datenübertragungsgeschwindigkeit garantieren sollte, die zumindest im heutigen Breitband-Bereich liegt. Wieviele Millionen Menschen könnte man dann anschliesen?

    (by the way, um als „backbone“ zu dienen, wären rein auf die Datentransferleistung bezogen Kabelverbindungen definitiv preiswerter… und ob sich die ISP auf so eine doch mit höherer latenz verbundene Backbone-Lösung einlassen werden… hm… )

    fazit: ich habe gewisse Zweifel, ob das Unternehmen ein Wirtschaftlicher Erfolg wird….

    LG
    Mike

  6. An Oneweb ist Virgin Galactics beteiligt. Die bauen an der Stratolaunch mit und haben gerade eine kleinere Rakete angekündigt, die 225 kg starten kann und mit dem Trägerflugzeug von Spaceshoip-Two gestartet wird. Ich halte es sehr unwahrscheinlich, dass sie einen Konkurrenten mit den Starts beauftragen.

  7. Nu ja, es geht ja erst mal um eine Kostenabschätzung, und ich halte es für unwahrscheinlich, dass Virgin signifikant preisgünstiger anbieten kann als SpaceX…
    Launcher I, die Virgin-Rakete soll ja angeblich pro Start unter 10 Mio kosten… was für 100 kg SSO jetzt nicht gerade preiswert ist, bedenkt man dass die Vega das lässig für unter 3 Mios/ 100 kg hinbekommt. Daneben ist das Ding ja noch nie geflogen.

    Wie gesagt… das ganze Konzept ist sehr sportlich…

    (Und das Google-Konzept ist nochmal eine Größenordnung gewagter)

  8. Ich meinte eher das es teurer ist.

    Zum Startpreis: natürlich ist eine kleine Rakete teuer als eine größere, die Vega kostet auch ein Viertel der Ariane 5 hat aber nur ein Zehntel der Nutzlast. Die Falcon 1 kostet 2008 auch 9 Mios für in etwa die gleiche Nutzlast. Verglichen mit der Pegasus ist sie sogar richtig preiswert.

    Die Starts werden wahrscheinlich mit der stratolaunch erfolgen, die soll 6 t Nutzlast haben, das reduziert sich im SSO auf 4 t. Das sind mit einem Dispenser so wahrscheinlich 25-30 Satelliten pro Start wobei man pro Start ja nur eine Bahnebene bedienen kann. Da vermute ich wird es 18 Bahnebenen mit 36 Satelliten geben, mit maximal zwei Starts pro Bahnebene sind die erledigt, wenn die Nutzlast etwas höher ist reicht auch einer.

    Launcher I wäre vielleicht eine kostengünstige Möglichkeit einen defekten Satelliten zu ersetzen wobei man im Normalfall mehr Satelliten startet als man braucht um Ausfälle abzufangen. Aber wenn man Pech hat fallen in einer Bahnebene mehr aus als man an Reserve hat.

Schreibe einen Kommentar zu Bernd Leitenberger Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.