Home Computer Computer Geschichte Site Map counter

Die Geschichte des Internets

Das ist eine kurze Geschichte der Entwicklung des Internets aus "nicht-technischer", historischer Sicht. Wie das Internet aus technischer Sicht funktioniert, erklärt dieser Aufsatz. Speziell auf das im letzten Abschnitt angeschnittene Thema "Web 2,0" bezieht sich dieser Aufsatz.

Das Arpanet

Das Arpanet gilt gemeinhin als der Vorläufer des Internets. Das Arpanet (Advanced Research Projects Agency Network) entstand im Laufe der sechziger Jahre als Folge der Aufrüstung der Universitäten mit Computern. Der Sputnikschock initiierte nicht nur das Mondprogramm, sondern bewirkte auch, dass die USA allgemein technologisch aufrüsteten. Kurse in Naturwissenschaften und Ingenieurswissenschaften wurden Pflicht in Schulen und Colleges und Universitäten bekamen Rechner finanziert.

Es wurde auch die ARPA gegründet, mit dem Ziel vor allem militärische relevante Forschung zu betreiben. Dafür wurden auch zivile Institutionen wie die erwähnten Universitäten betraut. Computer zogen ein in Universitäten und Forschungsinstitute. Die Rechner waren teuer, konnten aber nur vor Ort genutzt werden. Besser wäre es gewesen sie rund um die Uhr zu nutzen, auch wenn sie gerade nicht ausgelastet waren. Es gab daher den Vorschlag sie zu vernetzen. Schon 1962 hatte man die Grundzüge der Eigenschaften des Netzwerkes erarbeitet. Diese RAND-Studie mit ihrer Featureliste umfasste alles, was später das Internet ausmachen sollte. Die wesentliche Eigenschaft war, dass die Übertragung paketorientiert war. Computer konnten damals schon miteinander kommunizieren. Das geschah über Telefonleistungen, die als Standleitungen zur Verfügung stehen sollten. Die NASA lies zum Anbinden von Rechnern z.B. eigene Leitungen verlegen, um zu vermeiden, dass sie während einer Raumfahrtmission nicht zur Verfügung standen. Die Standleitung hatte viele Nachteile. Einer war, dass der Ausfall eines Teilstückes den Ausfall der gesamten Verbindung bedeuten kann. Ein Zweiter war, dass die Übertragungsgeschwindigkeit von dem langsamsten Teilstück abhing. Standleitungen waren ein privates Mittel, wenn man Computer verbinden wollte, die einige Hundert Kilometer voneinander entfernt waren wie in den Metropolen an der Ostküste oder in Kalifornien. Sie waren untauglich als Verbindung quer durch die USA oder gar den Kontinenten.

Der Vorschlag der RAND Studie war nun die Daten in einzelne Pakete zu unterteilen und an jedem Teilstück einen Rechner zu betreiben, der die beiden Teilstrecken entkoppelt. Er speichert Pakete zwischen und er leitet sie, wenn eine Verbindung ausgefallen ist, über andere Leitungen weiter. Dieser Rechner wurde "Interface Message Processor" (IMP) genannt. Es war zuerst ein Rechner von Honeywell. Die Nutzung eines Rechnertyps für die "Knoten" war einer der Gründe der vieles vereinfachte. Vorher war vorgesehen, dass jeder Rechner eigene Software für die Kommunikation schreibt. Das hätte sehr aufwendig werden können, wenn sehr viele verschiedene Rechner in einem Netzwerk sind. So brauchte man nur eine Schnittstelle zum IMP. Das vereinfachte vieles, denn jeder Rechner hatte eigene Methoden Daten zu speichern, zu übertragen und so gab es durch den IMP einen gemeinsamen Standard. Der Preis war, dass man einen dezidierten Rechner nur für diese Aufgabe benötigte.

1969 bewilligte die ARPA die Mittel für das Arpanet. Die erste Nachricht wurde am 29.10.1969 gesendet, doch schon nach dem dritten Buchstaben brach die Übertragung ab. Eine Stunde später gelang das Einloggen auf einen Rechner über das Arpanet. Die Paketorientierung des Arpanet war übrigens nie vorgesehen, um das Netzwerk im Falle eines Atomschlags in Betrieb zu halten. Das war nur in der RAND-Studie als Vorteil hervorgehoben worden.

Vom Arpanet zum Internet

Diese erste Verbindung war noch alles andere als zuverlässig. Es dauerte über ein Jahrzehnt, bis man die Protokolle entwickelt hatte, die so zuverlässig waren, dass jeder Rechner in jedem Netz mit einem anderen Rechner kommunizieren konnte. Das war mit der Umstellung von den Arpanet Protokollen auf das Internetprotokoll am 1.4.1983 der Fall. Seitdem setzte sich auch die Bezeichnung "Internet" für das Netz durch. Seitdem wurde das Internet vor allem in universitären Umgebungen zur Kommunikation zwischen Forschern genutzt. Bis zu diesem Zeitpunkt hatte man auch "Anwendungen" für das Netzwerk entwickelt, so:

Am populärsten war mit Abstand E-Mail, das ist kein Wunder, weil Kommunikation ein elementares menschliches Bedürfnis ist. Es sollte ein Vorbote des Hypes um Social Media werden.

Allerdings beschränkte sich der Zugang zum Internet in der zweiten Hälfte der achtziger Jahre noch vor allem auf Universitäten, Forschungsinstitutionen und militärische Einrichtungen. Zu einem Netzwerk für "Jedermann" wurde es erst 1989 als Tim Burners Lee am CERN auf einer NeXT Workstation das Hypertextprokoll und damit HTML als Seitenbeschreibungssprache erfand. Er hatte diesen brandneuen Rechner eigentlich bekommen, um festzustellen, was er und seine objektorientierte Oberfläche konnte. Um das zu testen, entwickelte er das Hypertextprotokol (HTTP) und die Seitenbeschreibungssprache HTML. HTML machte einiges einfacher. Anstatt Adressen einzutippen, wie bei einem FTP oder Telnet Log-in, konnte man auf einen Hyperlink klicken. Texte konnten so beliebig mit anderen Texten verknüpft werden und man konnte den Text auch sofort lesen mit einem Browser, anstatt ein Dokument herunterzuladen und dann in einer Anwendung zu öffnen. Das CERN, an dem das Protokoll für die Hypertext Markup Language  entwickelt wurde, machte nun einen Schritt, der sicher der wichtigste für das Internet war: Es verzichtete auf alle Rechte an den Erfindungen und übergab sie an die Allgemeinheit (Public Domain). Genauso gut hätte man dies patentieren können. Angesichts der heutigen Verbreitung des Internets könnte das CERN seinen milliardenteuren Forschungsbetrieb wohl dann alleine mit den Lizenzeinnahmen finanzieren. Doch wahrscheinlicher ist, dass es gar keinen Internet-Hype gegeben hätte, wenn man für die Nutzung der Technik Gebühren zahlen muss.

Mit HTML wurde das Internet massentauglich und es begann Mitte der 90er Jahre ein Run auf das Internet. Zu dieser Zeit gab es als Konkurrenz noch Onlinedienstanbieter wie Compuserve und AOL, Microsoft wollte das MSN (Microsoft Network) als weiteren Dienst starten und integrierte den Zugang dafür sogar in Windows 95, während man für die anderen Onlineservices eine eigene Software benötigt. Ein Onlineservice betreibt ein eigenes Netzwerk mit eigenen Einwahlknoten und bietet eigene Inhalte an, z.B. redaktionell gepflegte Nachrichten, aktuelle Sportergebnisse oder Ähnliches.

Zur Boomzeit des Internets gab es sogar die Idee, die damals noch teuren PCs (Kaufpreis 1995 rund 1500 Euro) durch viel einfachere Plattformen, "Thin Clients" abzulösen. Die Idee: ein Rechner oder Festplatte, mit wenig Hauptspeicher verbindet sich beim Einschalten mit dem Internet, lädt von dort immer aktualisierte und verbesserte Programme oder das Betriebssystem und speichert auch die Daten dort. Von Dienstanbieter wird die Datensicherung durchgeführt. Das war zwar enorm bequem und mit der Programmiersprache Java konnte man auch einen Teil der Rechenarbeit auf den Server verlagern, sodass ein einfacher Prozessor im Client genügte, aber es setzte eine Hochgeschwindigkeitsverbindung z.B. über TV-Kabel oder Glasfaserkabel voraus, die es in der zweiten Hälfte der neunziger Jahre noch eher selten gab. Heute gibt es eine Neuauflage dessen. So ist Office 2013 nur mietbar, man bekommt Online-Speicherplatz und für die Steuererklärung existieren mittlerweile Webdienste. Hier macht das Konzept sogar Sinn, denn eine Steuererklärung macht man genau einmal im Jahr. Damit einher geht natürlich auch eine Problematik: Die des Datenschutzes denn im Falle der Steuererklärung ist natürlich der Anbieter des Dienstes im Besitz ihrer gesamten Steuerdaten.

Der Browserkrieg

Onlineservices verloren jedoch schnell an Bedeutung, weil immer mehr Webseiten online gingen. Die Angebote bekamen so Konkurrenz durch das "kostenlose" Internet. Microsoft unternahm enorme Anstrengungen, den Internet Explorer als Standardbrowser zu etablieren. Bill Gates hatte alles auf das MSN gesetzt, musste jedoch 1995 bei der Comdex sehen, dass sowohl Entwickler wie auch Benutzer auf das Internet setzten. Gates befürchtete das Microsoft nicht nur die Technologieführerschaft verlieren würde, sondern auch Umsätze und Macht verlieren würde. Er erkannte, das der Browser nicht nur ein Stück Software war, sondern der Zugang zum Internet. Damit legt man mehr als die Einstiegsseite fest. Mit dem Browser werden auch Überweisungen durchgeführt, der Browser kommuniziert mit Servern und vor allem betraf er die Vorherrschaft von Windows, denn wenn der Browser plattformübergreifend war und der Besuch des Internets die Hauptanwendung eines Betriebssystems sein würde, dann wäre damit auch die Vorherrschaft von Windows gefährdet, das auf 90+% aller PC installiert war.

Microsoft entwickelte ihn aus dem NCSA Mosaic Browser, dem ersten Browser überhaupt und verkaufte zuerst den Internet Explorer, begann als sie den Marktanteil jedoch nicht steigern konnten ihn zu verschenken. Führend auf PC-Systemen war damals der Netscape Navigator, den es als Browser für den nicht-kommerziellen Einsatz kostenlos gab, beim kommerziellen Einsatz war eine Gebühr fällig und es gab noch ein "Gold" Paket mit E-Mail Client und Werkzeug zur Erstellung von Webseiten, das kostenpflichtig war. Es begann der Browserkrieg. Trotz verschenktem Browser konnte Microsoft Netscape Navigator in der Verbreitung nicht schlagen. Daraufhin führte Microsoft neue Features ein, die inkompatibel zum W3C Standard waren. Das W3C wurde gegründet um HTML und andere Standards im Web weiterzuentwickeln, damit Webseiten von allen Geräten gleich angezeigt werden. Besonders eng war die Verbindung vom Internet Explorer zu eigenen Produkten von Microsoft, die Geld kosteten wie dem Internet Information Server oder dem SQL Server. Das erleichterte Entwickeln das Leben und führte dazu dass man ohne den IE teilweise Online-Banking nicht mehr durchführen konnte oder CDs mit Finanz- oder Steuersoftware die Datenbanken einsetzten den IE mitinstallierten, um die Hilfe oder Tipps anzuzeigen. Danach übte das Unternehmen Druck auf Computerfirmen aus, den Browser auf PCs zu installieren, sonst bekämen sie keine Windows Lizenzen mehr und später wurde der Browser ins Betriebssystem integriert, sodass der Benutzer keinen Browser mehr installieren musste.

Es gelang Netscape in der Verbreitung zu überholen und die Firma wurde 1998 von AOL übernommen. Danach wurde die Entwicklung wieder eingestellt, bis alternative Browser wie Firefox und Chrome und bekannte und nicht geschlossene Sicherheitslücken den Marktanteil des IE wieder stark absinken ließen. Die Machenschaften hatten ein gerichtliches Nachspiel. Die US-Regierung klagte Microsoft wegen Verstoßes gegen das Antitrustgesetz an. E-Mails verrieten, das in der Rührungsriege von einem "Heiligen Krieg" gegen Netscape gesprochen wurde und die Firma über 100 Millionen Dollar pro Jahr in die Entwicklung steckte. 1998 arbeiteten alleine am Internet Explorer 1000 Personen, das waren mehr als Netscape überhaupt an Angestellten hatte. Dazu kamen Ausgaben für Werbung und Subventionen, wenn der Browser vorinstalliert wurde. Insgesamt soll MS mehrere Milliarden Dollar für den Browser ausgegeben haben. Experten konnten dem Gericht demonstrieren, dass die Behauptung der IE wäre, integrierter Bestandteil von Windows und nicht aus dem Betriebssystem entfernbar gelogen waren und man ihn in 10 Minuten deinstallieren konnte. Es gab Vorschläge aufgrund dieser und anderer Vergehen Microsoft zu zerschlagen, so wie dies die Regierung schon bei AT&T getan hatte, also die Firma in Einzelunternehmen aufzuteilen, die nur Betriebssysteme, Officeprodukte und Entwicklungswerkzeuge herstellt. Der Amtsantritt von George W. Bush führte aber dazu, dass das Verfahren ohne Begründung eingestellt wurde. Ein weiteres Verfahren in der EU führte dazu, dass zumindest in der EU auch Windows ohne Vorinstallieren IE angeboten werden muss. An die EU musste Microsoft wegen Verstoßes gegen Antitrustgesetze auch eine hohe Geldbuße zahlen.

Nachdem man Netscape erfolgreich vom Markt verdrängt hatte, lies man die Browserentwicklung bei Microsoft einschlafen. Über Jahre hinweg änderte sich an der Versionsnummer nichts. Dei Version 6 blieb von 2001 bis 2007 die letzte Version. Erst als Firefox dem Internet Explorer deutliche Marktanteile abgenommen hatte und Google mit Chrome einen eigenen Browser vorstellte reagierte Microsoft und brachte die Version 7 heraus. Doch es war zu spät. Vor allem weil einige Jahre lang der Internet Explorer auch in der Unterstützung der aktuellen Webtechnologien der Konkurrenz hinterherhinkte und langsamer war. Mit Windows 10 hat die Firma auf die Misere reagiert und in dieses neue Betriebssystem einen neuen Browser namens „Spartan“ oder "Microsoft Edge" integriert.

Das Internet als Rechtsraum

Anfangs sah es aus, als wäre das Internet ein rechtsfreier Raum. Sehr bald florierten Tauschbörsen in denen gerippte Filme, MP3 oder Software es dauerte lange, bis die Rechteinhaber darauf reagierten, auch weil viele das neue Medium nicht als neuen Vertriebskanal erkannten und wenn dann zu so unattraktiven Konditionen wie hohen Preisen und mit Digital Rights Management geschützten Produkten (DRM). Apple bot im iTunes Shop Musik für 99 ct pro Stück und ohne DRM an - der Umsatz übertraf bald den der verkauften Computer, was dafür spricht, dass die Leute gerne einen angemessenen Preis zahlen.

Doch der Schock wähnte nur kurz und die Industrie ging zum Gegenangriff über. Es wurden Server für das Protokoll Bittorrent, eigentlich zum verteilten Anbieten von Software gedacht (man holt sich die Datei von vielen Rechnern (Peers) und verteilt Stückchen davon selbst an andere) ins Internet gestellt mit dem einzigen Ziel Rechner die auf die Datei zugriffen anhand ihrer Internet-Adresse zu erkennen. Bei deutschen Amtsgerichten wurden dann Anträge auf Freigabe der Adressen durch den Provider gestellt, wobei teilweise bis zu 10.000 IP-Adressen (=Personen) betroffen waren. Dies führte zu einer Abmahnindustrie, deren einziger Sinn es ist, an den mit der Abmahnung verbundenen "Strafen" und den Anwaltsgebühren zu verdienen. Da diese Verfahren automatisiert ablaufen, kann man selbst bei wenigen Hundert Euro, wenn man pro Woche Zehntausende von Schreiben absetzt, in kurzer Zeit Unsummen verdienen. Die Politik folgte zumindest in Deutschland lange Zeit dieser Forderung und verschärfte die entsprechenden Gesetze, zwang auch Internetprovider zur Vorratsdatenspeicherung - für die Terrorismusabwehr, aber dies ist genauso gut für die Strafverfolgung nutzbar, denn sonst wäre ein Verstoß bei vielen Providern nach wenigen tagen nicht mehr verfolgbar, da die Internetadresse laufend neu verteilt wird. Erst 2011 folgte ein Gesetz, das eine Deckelung der Gebühren in "einfach gelagerten Fällen" vorsah, doch raten sie mal, wer entscheidet, wann ein Fall einfach gelagert ist …

Es dauerte noch ein paar Jahre, bis die Erkenntnis auch bei Gerichten ankam, dass es nicht um das Verfolgen von Urheberrechtsverstößen geht, sondern um ein Geschäftsmodell von skrupellosen Rechtsanwälten. 2015 fordern die meisten Gerichte Beweise für eine Rechtsverletzung und akzeptieren auch nicht einfach die Angabe einer IP-Nummer als Beweis dafür dass jemand den Verstoß begangen hat. (Eine Privatperson kann praktisch nicht beweisen, dass sie nicht diese IP-Adresse zu diesem Zeitpunkte nutzte und wenn, dann kann durch ein von Fremden benutztes WLAN sie nicht der Urheber des Verstoßes sein).

Das man durchaus wirksam gegen die Piraterie von Software und Medien vorgehen kann zeigte der Fall Megaupload. Der Eigentümer der Domain, die primär am Verbreiten von illegalen Inhalten verdiente, wurde verhaftet sein Vermögen eingezogen, die Server abgeschaltet - innerhalb kurzer Zeit begannen die anderen Betreiber von Shares wie Rapidshare bekannte illegale Inhalte zu löschen und richteten vereinfachte Möglichkeiten ein diese zu melden bzw. setzten Programme ein, die Dateien anhand ihres Inhaltes erkennen.

Insbesondere die deutsche Politik scheint aber noch nicht erkannt zu haben, dass das Netz international ist. Das zeigen solche hilflosen Gesetze wie das Antikinderpornorgraphigesetz bei dem deutsche Surfer anstatt dem erhofften Inhalt eine Warnseite zu sehen bekommen. Dies geschieht durch Umleitung der Besucher auf eine neue Adresse. Das ist in etwa so, als wölle man die Leute davon abhalten nach Bielefeld zu fahren, indem man die Straßenschilder dorthin entfernt. Bielefeld existiert aber weiterhin. Organisatoren, die dies schon vorher machten, rufen den Betreiber des Rechners an, der meist nichts vom Inhalt wusste und innerhalb von Stunden war der Inhalt auch wirklich gelöscht. Auch der NSA-Skandal, indem auch innerdeutsche Verbindungen abgehört wurden, weil sie einen kleinen Sprung nach London machten, wo ein zentraler Internetknotenpunkt sitzt, den dort die NSA und der britische Geheimdienst abhören.

Eine andere Sache ist das leichtsinnige Benutzer auch über das Internet betrogen werden. Als die meisten noch mit einem Modem ins Internet gingen gab es Dialerprogramme die extrem teure Verbindungsnummern wählten. Später gab es Anbieter die nur kurzfristig einen billigen Tarif anboten oder unmittelbar nach einem billigen (z.B. von 18-19 Uhr) einen teuren (ab 19 Uhr schalteten). Bis heute ein Ärgernis, nun aber langsam von der Politik mit Gesetzen bekämpft ist das Unterschieben von Abos oder kostenpflichtigen Extras die man nicht oder nur mit großem Aufwand abwählen kann. Gerade Letzteres praktizieren nicht nur schummerige Rotlichtfirmen, sondern auch die meisten Provider, die bei einem neuen Vertrag ihren Kunden "Sicherheitspakete" oder "3 Monate gratis - danach nur noch xx Euro pro Monat" Pakete unterschieben. So auch mein Provider, wo ich dies explizit nach Vertragsabschluss kündigen musste.

Verschwommen ist die Grenze zwischen Betrug und ehrlichem Geschäftsmodell auch bei anderen Diensten. Der prominenteste Aspekt sind Glücksspiele im Internet. Sie sind in vielen Ländern legal lizenziert (in Deutschland gibt es nur zwei Lizenzen des Landes Schleswig Holstein, da Glückspiele / Kasinos in die Landeshoheit fallen). Als Einzelperson kann man kaum nachprüfen, ob ein Glückspiel wirklich realitätsgenau simuliert wird. Es reicht oft schon eine kleine Änderung aus um den Anbieter reich zu machen, ohne das der Anwender dies bemerkt. Beim Roulette ist z.B. die Chance, dass eine Zahl "fällt" 1/37, der Gewinn beträgt nur das 36-fache. Von der Differenz lebt das Kasino. Rechnet es intern mit einer Chance von 1/38 anstatt 1/37 so verdoppelt sich der Gewinn, der Benutzer kann die Differenz aber nur nachweisen, wenn er viele (10.000 bis 100.000) Spiele macht.

Neue Anwendungen für das Web

Mit HTML wurde das Internet zu einem Massenmedium, etwa 10 Jahre später gab es einen zweiten Schub, den man gemeinhin "Web 2.0" nannte. Die Nutzung des Internets bis dahin war weitgehend passiv. Man surfte im Internet, aber zur Kommunikation gab es nur E-Mails. Diese konnten sofort den Empfänger sofort erreichen und beantwortet werden, mussten aber nicht. Es gab keine direkte Kommunikation wie bei einem Gespräch. Das gab es schon als Chat, doch das war begrenzt auf einen kleinen Nutzerkreis die sich oft über spezifische Dinge unterhielten. Es gab auch nicht die Möglichkeit das sich zwei oder mehrere Personen direkt über das Internet unterhielten.

Das änderte sich mit der Einführung neuer Dienste wie Twitter, Instant Messenger, Voice over IP, Social Networks aber auch Blogs. So unterschiedlich diese Dinge auch sind. Sie haben eines gemeinsam: Sie bieten Instant Kommunikation. Entweder zwischen zwei oder mehrere Personen (Voice over IP per Telefon, aber auch Skype, Instant Messenger) oder eine Person kann sofort etwas posten das dann für viele sofort sichtbar ist (Twitter, Blogkommentar, Social Web). Vorher war Internet populär gewesen, doch vor allem um sich zu informieren, entweder gezielt oder das berühmte "herumsurfen" im Web. Nun diente es zur Kommunikation. Kommunizieren ist ein elementares Grundbedürfnis und es verschaffte dem Internet einen zweiten Boom, da nun viele ins Netz gingen, die vorher kein Interesse daran hatten. Vor allem stieg der Anteil der Frauen bei den Nutzern. Dazu kam, dass nun neue Geräte wie Handys, Smartphones und Tabletts genutzt werden, um ins Netz zu gehen. Damit löste sich das Netz vom Computer und wurde überall (auch durch die Verbreitung von Hotspots) verfügbar und zu jeder Zeit. Auch viele Firmen nutzen heutzutage das Internet und diese sozialen Kanäle, um ihre Produkte direkt an die Kunden zu bringen, Kunden zu binden und auch einfach besser in Kontakt mit ihnen zu kommen. Damit ändert sich auch die Einstufung von Berufen. Als ich 2004 meinen Abschluss machte, war ich verärgert: Ich hatte Softwaretechnik studiert und ein Semester vor meinem Abschluss wurde der Studiengang in "Softwaretechnik und Medieninformatik" umbenannt und damit änderte sich auch meine Berufsbezeichnung. Lange Zeit habe ich den letzten Teil daher immer weggelassen, weil das für mich nach Webseitendesign klang und nicht nach ernsthaftem Erstellen von Software. Das hat sich nun auch in meinen Augen geändert und Medieninformatik ist heute ein eigenständiges Berufsbild.

Mit der Einführung neuer Services und Anwendungen einher ging aber auch eine große Marktmacht der Firmen, die diese Services anboten wie Facebook, Twitter oder Google. Ihr Börsenwert stieg an. Zehn Jahre vorher gab es die "Dot-Com" Blase als viele Firmen an der Börsen hoch gehandelt wurden, obwohl sie keine Gewinne erwirtschafteten. Das ist bei Facebook & Co anders, allerdings hat dies einen Preis: Sie nutzen die Daten die sie von den Benutzern bekommen um personalisierte Werbung zu schalten oder diese Datenprofile weiterzuverkaufen. Aus datenschutzrechtlicher Sicht sind diese "Datenkraken" sehr bedenklich. Das gilt vor allem für Facebook deren Datenschutzrichtlinien lax sind,

Gerade diese neuen Dienste wie auch die Nutzung des Internets für den Transport von Nicht-Text und nicht binären Daten wie Telefonie oder Videostreaming oder Online Spiele zeigen den Hauptvorteil der technischen Auslegung in sieben Schichten: Es ist möglich, die Kommunikationsschichten von vielen Anwendungen zu nutzen und dabei neue Anwendungen einzuführen.

Während der ganzen Zeit sind erstaunlicherweise die Übertragungsmedien gleich geblieben. So war bis zum Jahr 2000 in Deutschland die wichtigste Möglichkeit ins Netz zu gehen ein Modem. Es sandte über das Telefonnetz und wandelte die digitalen Signale in Töne um, wobei nur ein Teil des Frequenzspektrums genutzt wurde. Wenn man dieselbe Bandbreite digital nutzte, dann geschah das über ISDN und man erzielt die Zwei bis dreifache Datenrate. DSL nutzt auch das Telefonkabel, aber ein viel größeres Frequenzspektrum. Ähnlich sieht es beim WLAN aus. Das begann mit 11 MBit/s. Größere Bandbreiten, und der Wechsel auf höherfrequente Bänder und effizientere Codierungsverfahren ließen die Übertragungsrate auf 150 Mbit/s steigen. Auch Ethernet kann heute auf den Kabeln, mit denen man vor 10 Jahren noch 10 MBit/s übertragen, konnte 1000 Mbit/s übertragen. Allerdings haben diese enormen Steigerungen der Datenrate auch ihnen Preis. Bei Ethernet sinken die erlaubten Kabellängen und bei WLAN nehmen die Störungen durch Hindernisse (Mauern, Möbel etc.) zu und die Reichweite ab. Bedingt dadurch das heute (fast) jeder WLAN hat und die meisten im 2,4-GHz-Band surfen, wo es nur 3 nicht überlappende Kanäle gibt, stören sich aber oft die einzelnen Netze. Abhilfe sind höhere Frequenzen. 2015 ist im 5-GHz-Band, obwohl es seit 2006 standardisiert ist, noch viel Platz frei, weil viele Router auf Altgeräte Rücksicht nehmen und im 2,4-GHz-Band funken. Experimentell wird schon an noch höheren Frequenzen geforscht. Das 60-GHz-Band offeriert noch mehr Kapazität hat aber nur eine geringe Reichweite und kann Mauern nicht durchdringen, trotzdem arbeitet man schon an einer Nutzung dieses Frequenzbandes.

Eine neues Übertragungsmedium könnte in einigen Jahren zur Verfügung stehen. Google/SpaceX und OneWeb planen Flotten von Kleinstsatelliten (4000 bzw. 800 Stück), die in einem erdnahen Orbit die Erde umkreisen. Anders als die schon etablierten Satellitenzugänge über geostationäre Satelliten oder mittelhohe Satelliten (O3B) haben diese eine geringere Latenz, also Zeitverlust durch die Signallaufzeit. Diese ist vor allem bei Spielen aber auch Online Videokonferenzen oder Telefongesprächen wichtig. Ein Geostationäre Satellit hat eine Latenz von mindestens 0,25 s, die Satelliten des O3B Systems in 8000 km Höhe (gedacht für die Versorgung von äquatornahen pazifischen Regionen) eine von 0,05 s. Diese Systeme sollen 10% des Backboneverkehrs übertragen. Sie sind wahrscheinlich aber eher eine Alternative für Länder mit schlecht ausgebauter Infrastruktur wie große Teile Afrikas.

Artikel zuletzt geändert am 4.8.2015.

Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.


© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Impressum / Datenschutz Neues Hier werben / advertisment here Buchshop Bücher vom Autor Top 99