Home Computer Software Site Map counter

Hase und Igel -

Der Wettlauf von Hardware und Software

Einleitung

Im Januar 2000 ist der PC 25 Jahre alt geworden. In dieser ganzen Zeit gab es nur kurze Fristen in dem es ein Gleichgewicht von Hardware und Software gab. Was ist damit gemeint? Nun gehen sie in ein Kaufhaus, kaufen sie ein neu erschienenes Programm und installieren sie es: Mit etwas Glück können sie damit arbeiten, wahrscheinlicher ist aber das sie ihren PC aufrüsten müssen. Es ist meistens die Ausnahme, das die Software die Hardware ausreizt, viel öfters kommt es vor das Hardware der Software voraus ist oder Software auf der Hardware quälend langsam läuft. Die Geschichte dieses Ungleichgewichts behandelt dieser Artikel.

Die 8 Bit Ära (1975- zirka 1983/84)

Altair 8800Als der Altair 8800 - der allererste PC 1975 erschien hatte er in der Grundausführung 256 Byte (nicht Kilobyte oder Megabyte) Speicher! Auch wenn das etwas knapp war - es dauerte lange bis auch die 8 Bitter genügend Speicher hatten, das nicht schon ein Hobby Programmierer an die Grenzen stieß. Die ersten "Einschalt und Loslegen PCs", Apple II, Tandy TRS-80 und Commodore PET kamen 1977/78 mit 8-16 Kilobyte Speicher und erst ab zirka 1981 war der Vollausbau von 64 Kilobyte Speicher finanzierbar.

Doch dann sah man etwas was sehr typisch für das Dead-End einer Plattform ist - Obgleich der Speicher bei einem 8 Bit Rechner nicht weiter vergrößerbar ist (Adressbereich 16 Bits = 64 KByte) wurden die Programme immer besser. Das galt sowohl für Spiele wie auch Anwendungen. Mit einem 8 Bit Rechner konnte man schließlich alles das machen was man auch heute so erledigt: Datenbanken (samt integrierter Programmiersprache), Textverarbeitung, Tabellenkalkulation. Was auf der Strecke bleiben musste war der Komfort. Das gebräuchlichste Textverarbeitungsprogramm WordStar z.B. arbeitete mit Control-Sequenzen die schwer erlernbar - aber auch effektiv und schwer verlernbar waren.

Ähnliche Entwicklungen fand man später auch bei anderen Plattformen die nicht erweiterbar waren wie Amiga und Atari Rechnern oder den Spielkonsolen. Dieser Einklang von Hardware und Software ist bei sich immer weiter entwickelnden Systemen meistens nicht zu erreichen.

Die 16 Bit Ära (1981-1989)

IBM PC1981 stellte IBM ihren ersten PC vor, obgleich die ersten 16 Bit Prozessoren schon 1976-1979 erschienen, begann damit die 16 Bit Ära. Auch hier dauerte es lange bis der maximale Speicherausbau von 640 K unter DOS erreicht wurde. 1984 erschien der IBM AT. Damit begann das Ungleichgewicht von Hardware und Software. Der 8086 Prozessor - die Basis für die vorherigen PCs konnte nur 1 MB in 64 K Segmenten ansprechen, der 80286 im IBM AT dagegen 16 MB ohne diese Segmente. Es gab allerdings keine Software die dies ausnützte. DOS war damals (bis heute) auf 640 K und die Betriebsart des 8086 festgelegt.

Zum ersten mal ging mit dem IBM AT die Hardware in Führung, d.h. die Software nutzte die Hardware nicht vollständig aus. Microsoft verpasste die Chance DOS, welches damals das einzige Betriebssystem für den PC war, auf die Möglichkeiten des 80286 Prozessors anzupassen. Dabei war dieser schon 2 Jahre auf dem Markt bevor der AT erschien und der PC hatte schon allein wegen seines hohen Preises von 5.000-15.000 DM je nach Ausbaustufe noch nicht die Bedeutung wie heute. Lediglich als der Speicherausbau 1 MB überschritt, modernisierte man DOS leicht und nutzte einen Überlauf des 8086 am Rande des 1 MB aus um dies abzufangen und darüber den höher liegenden Speicher des 80286 abzufragen.

Apple, die auf diese Kompatibilität keine Rücksicht nehmen mussten als die dem Macintosh 1984 präsentierten konnten dagegen eine grafische Benutzeroberfläche einführen - und dies bei relativ kleinem Ressourcenverbrauch. Microsoft versuchte mit Windows ein ähnliches System einzuführen, jedoch nur als DOS Aufsatz: Sehr bald merkte nun auch Microsoft, das sich dieses Festhalten an der Kompatibilität nicht gerade positiv auf die Leistung von Windows auswirkte. Es dauerte über 2 Jahre bis die erste Version 1986 fertig gestellt war und erst die 1990erschienen Version 3.0 wurde zum kommerziellen Erfolg.

DOS Programme nutzen allerdings immer mehr die Möglichkeiten dieses Betriebssystems aus, wurden benutzerfreundlicher und nutzen die Möglichkeiten von Grafikkarten um ähnlich bei grafischen Benutzeroberflächen eine Darstellung des Druckbildes zu simulieren oder das als SAA bezeichnete Konzept der Simulation, einer grafischen Oberfläche mit Maus im Textmodus. Spiele nutzen noch sehr lange DOS weil man nur dort die volle Rechengeschwindigkeit nutzen konnte, die grafischen Benutzeroberflächen fraßen von der Rechenleistung viel, weshalb sich Windows auch erst mit der Verbreitung der 386 er Rechner durchsetzte.

Die 32 Bit Ära (1985-2001)

Compaq Deskpro 386/25 Lediglich bei den IBM PC Kompatiblen geschah die Einführung von 32 Bit Prozessoren schnell und weitgehend gleitend. Grund dafür der Konkurrenzkampf, bei dem man mit einem neuen Produkt Vorteile hatte. Dazu kam die Softwarekompatibilität, die zwar die Möglichkeiten eines 386 er, 486 oder Pentium (II,III....) nicht nutzte und ihn zum schnellen 8086 degradierte, aber genau dies war das was die Käufer wollten. Firmen die MC 68000 er Prozessoren einsetzten wie Apple, Amiga oder Atari vollzogen den Übergang langsamer, da man mit dem 32 Bit Design auch die neuen Möglichkeiten dieser Prozessoren nutzen wollte.

IBM wollte mit OS/2 ein kompromissloses Betriebssystem für den 80286 Prozessor einführen, scheiterte jedoch an der Komplexizität der Entwicklung und hinkte weit hinter dem Zeitplan hinterher. Microsoft bei OS/2 lange Zeit in der Entwicklung mit beteiligt lernte daraus und modernisierte Windows nur sehr langsam. Microsoft strich erst die Unterstützung für eine obsolete Plattform wenn sie sicher sein konnten das sie keine Marktbedeutung mehr hatte. So war die erste Windows Version die nicht mehr auf dem 8086 Prozessor lief die 1992 vorgestellte Version 3.1, erst 1995 erforderte Windows 95 einen 386 er Prozessor und erst mit Windows XP ist DOS aus dem Produkt verschwunden - 10 Jahre nachdem Windows Programme mehr Umsatz als DOS Programme machten.

Obgleich also Windows 9x hinsichtlich der Prozessorunterstützung hinterherhinkt gibt es bei den Anwendungen das genaue Gegenteil: Immer neue Einsatzgebiete werden dem PC erschlossen - Videos abspielen, Musik dekomprimieren, realistische Grafiken für Computerspiele. Gerade hier zeigt sich ein Nachteil eines jeden Betriebssystems, welches keinen direkten Hardwarezugriff zulässt: Von der ansteigenden Prozessorleistung kommt nur noch die Hälfte bei der Anwendung an. Oder anders gesagt : Wenn Sie einen 500 MHz Prozessor durch einen 1000 MHz Exemplar ersetzen so wird nicht alles 100 % schneller sondern nur zirka 50 %. Daher gibt es seit 2 Jahren auch den Trend intelligente Grafikkarten zu bauen, welche die 3D Berechnungen selbst ausführen und so diesen Nachteil wieder wett machen.

Bei anderen Anwendungen gibt es inzwischen eine Sättigung: Ein Office Packet kann inzwischen fast alles und man benötigt dazu keinen besonders schnellen Rechner. Fast als wäre dies peinlich, versucht man neue Elemente zu integrieren die dann auch wieder Rechenleistung fordern. So wird das Internet vom Informationsmedium zur multimedialen Netz. Office Pakete integrieren Scriptsprachen und verwenden XML als aufwendiges Dokumentenformat. Daher dürfte der Absatz neuer Rechner auch in den nächsten Jahren gesichert sein. Wenn nichts anderes mehr hilft, so entdeckt man einfach ein neues Anwendungsgebiet für den PC: Paradebeispiel ist der ab 2000 entstehende Video Boom. Plötzlich kommt alle Welt darauf Fernsehen am 40 cm Bildschirm (17" Monitor), aus kurzer Entfernung auf dem Schreibtischstuhl anzusehen, anstatt bequem von der Couch in den 66 cm Fernseher zu schauen. Warum? Weil man sonst die Festplatten nicht voll bekommt! Von 1995 bis 2000 ist die Kapazität pro DM um das 50-fache gestiegen, während Prozessoren nur 8 mal schneller wurden und Speicher um das 16 fache anstieg. Selbst Rechner mit der kleinsten verfügbaren Platte von 15-20 GB hatten viel mehr Platz als man braucht. Also braucht man eine neue Anwendung die 2-3 GB/Stunde Spielzeit verbrät - egal wie bequem das Video ansehen am Computer ist...

Die 64 Bit Ära (2001...)

Power MAC 65 (64 Bit) Erstaunlich spät erscheinen die ersten 64 Bit Prozessoren die x86 Kompatibel sind. Dies werden ab 2001 der Itanium von Intel und ab 2002 der Opteron von AMD sein. Grund dafür sind natürlich die 32 Bit Altlasten. Solange die meisten Intel Prozessoren in PCs wandern und Windows 9x gerade mal den 486 als Codebasis hat ist es unsinnig einen 64 Bit Prozessor auf den Markt zu bringen sondern sinnvoller die 32 Bit Konkurrenten durch schnellere Pentium III zu schlagen. Auch hier hilft ein Blick über den Tellerrand: DEC (heute Compaq) und MIPS haben schon seit Anfang der neunziger Jahre 64 Bit Prozessoren im Programm. Erst wenn die 64 Bit Prozessoren für den Betrieb deutliche Vorteile in Geschwindigkeit oder Sicherheit bringen oder die 4 Gigabyte die ein 32 Bitter adressieren kann zu klein werden, dürften sie sich im PC Bereich breit durchsetzen. Der Itanium nutzt nicht einmal die vollen 64 Bit sondern adressiert in seiner ersten Ausführung nur 44 Bit, trotzdem 4096 mal mehr Speicher als ein 32 Bit Prozessor oder ein genauso großer Unterschied wie zwischen dem 8086 und dem 80386.

Wieder einmal konnte Apple mit dem Power Mach G5 den ersten 64 Bit Personalcomputer vorstellen - wobei man natürlich darüber streiten kann wo die grenze zu den 64 Bit Workstations verläuft die es von anderen Herstellern schon seit Jahren gibt. Erst Ab Ende 2004 gibt es für die schon seit 2003 verfügbaren 64 Bit Prozessoren von AMD (Athlon64, Opteron) auch 64 Bit Windows.

Die Bits oder - warum so viel Getöse darum?

Nun stellt sich die Frage: Was hat man als Anwender von 32 oder 64 Bit? Schlussendlich werden die wenigsten heute in Assembler programmieren. Die Industrie versucht uns natürlich klar zu machen das davon vieles abhängt: Man denke nur an den Werbefeldzug bei der Einführung des "32 Bit" Windows 95. Betrachtet man es von der Maschinensprache so ist natürlich ein gewaltiger Schritt beim Übergang von 8 bis 16 Bit. 8 Bit deckt nur Werte bis 255 ab und wenn auch die meisten 8 Bitter mit 16 Bit Zahlen addieren konnten war dies doch langsamer als mit 8 Bit und es gab nur die Grundrechenarten Addition und Subtraktion. Mit 16 Bit Zahlen kann man nicht nur größere Werte verarbeiten, sondern damit kann man auch mit einem wert so ziemlich alles adressieren was auch heute noch über Koordinaten angesprochen wird - Bildschirmkoordinaten, Spuren einer Festplatte etc.... Als Nebeneffekt stieg auch der adressierbare Speicher von 64 Kilobyte auf 1 MB oder 16 MB je nach Modell.

Mit 32 Bit die heute Standard sind kann man ca. 99.9 % aller Fälle erschlagen wofür man Ganzzahlen braucht. Der Bereich geht bis hoch zu 4 Mrd., entsprechend haben 32 Bit Rechner auch noch Luft für den Speicherausbau auf 4 Gigabyte. Als die 32 Bitter noch langsamer waren und er mathematische Koprozessor noch extra und teuer, haben daher auch findige Programmierer mit 32 Bit Integer gerechnet anstatt mit Fliesskommazahlen. Drückt man DM Beträge z.B. in Pfennig aus, so kann man mit 32 Bit Integer Beträge von ± 21 Millionen DM ohne Rundungsfehler berechnen.

Das man bei Windows 95 so viel von 32 Bit redete, hatte seinen Grund aber nicht daran das man mit 32 Bit Zahl rechnete sondern ein spezieller Modus denn nur die 32 Bit Prozessoren ab dem 386 er hatten für mehr Sicherheit sorgen sollte. Da dieser Schutz durch 16 Bit Altlasten leider ausgehebelt. wird ist daraus nichts geworden.

Heute findet man 64 Bit Rechner vor allem in wissenschaftlichen Bereichen in Großrechnern oder Workstations, lange bevor AMD und Intel ihre 64 Bit Prozessoren vorstellen. Das liegt an den vielen Fließkommaoperationen die dort anfallen. 64 Bit ist aber gleichzeitig das Standardformat für Fließkommaoperationen so sind hier 64 Bit Prozessoren ihren 32 Bit Kollegen überlegen. Richtig durchsetzen konnten sie sich aber erst, als sie einen weiteren Vorteil ausspielen konnten: Ein 64 Bit Prozessor kann mehr Speicher adressieren. Bei einem 32 Bit Prozessor ist bei 4 Gigabyte Schluss. Immerhin reichte das zwanzig Jahre lang (von 1985 bis 2005) aus.

Blickt man aber weg von dem PC, so sollte man sich vergegenwärtigen das dies nur ein kleiner Markt ist. 2000 wurden weltweit 6 Mrd. Prozessoren, Embedded Controller und DSPs verkauft. Davon nur 120 Millionen Pentium II/III/Athlon, also 2 % des Gesamtmarktes. Dagegen wurden über 3 Mrd. 8 Bit Prozessoren verkauft und selbst im 32 Bit Segment hat Intel nur einen Marktanteil von 20 %. Warum? Nun, außer beim PC haben normalerweise Produkte Lebenszeiten von 10 Jahren oder mehr. So lange werden auch Schaltungen benötigt. Wenn die Elektronik ihres Golf nach 3 Jahren spinnt werden sie froh sein, das der Prozessor dafür noch produziert wird. Zudem braucht man auch selten diese Rechenleistung, die ein PC hat. 90 % davon gehen nur für die grafische Oberfläche drauf. Auch werden die alten Prozessoren noch weiterentwickelt und gebaut. Der alte 8 Bitter Z80 ist z.B. inzwischen bei 50 MHz Takt angekommen, mit integriertem TCP/IP Stack (fürs Internet) und kann 16 MB adressieren. Man findet ihn in vielen Haushaltsgeräten und im Gameboy. Vor allem aber sind sie günstiger als die Intel Chips - Während Intel nur einen Anteil von 2 % am Prozessormarkt hat gemessen an den Stückzahlen, so ist es bei dem Wert 50 % - Intel Chips sind also erheblich teurer als das was allgemein verbaut wird.

Hardware wird unwichtiger, Software auch

In den achtziger Jahren führte ich, wie auch viele andere Besitzer eines der ersten Heimcomputer, heftige Diskussionen über die Vorteile des eigenen Gerätes bzw., was der Gegenüber für einen "Schrott" im Wohnzimmer stehen hat. Damals waren die Geräte unverwechselbar, jedes mit eigenen Vorteilen und Nachteilen und sie waren nicht zueinander kompatibel. Software war ebenso auf ein Gerät bezogen. Man konnte kein Programm des C64 auf einem Sinclair Spectrum einsetzen (man hätte es nicht mal kopieren können, denn selbst Audiokassetten, die damals ein gängiges Speichermedium bei vielen Rechnern waren, wurden in unterschiedlichen Formaten bespielt).

Mit dem Siegeszug des IBM PC wurde eine Hardwareplattform dominierend und Firmen, die andere Geräte herstellten, wie Commodore und Atari gingen in die Insolvenz, Apple stand kurz davor. Software wurde daher vielseitiger, es gab einen viel größeren Markt und Software wurde auch immer mehr ein Grund, einen PC zu kaufen, weil das neue Programm zwar auf dem alten noch lief, aber nur langsam. Die Einführung von Windows 95 mit erheblich höheren Anforderungen an Speichergröße und Geschwindigkeit führte z.B. 1995 zu einem Kaufboom bei den PCs.

Heute haben wir eine neue Dimension erreicht. Die Leute haben nicht mehr nur den PC. Viele auch kein Notebook mehr. Stattdessen zahlreiche mobile Geräte wie Smartphones, Tabletts, Smartwatches. Die meisten User interessiert nicht mehr, was für eine Hardware verbaut ist und welche Software sie benutzen, es muss nur funktionieren und dazu gehört, dass es auf allen Geräten gleich gut geht. Dadurch hat sich einiges geändert. So bekommen Firmen, die heute Hardware und Software in ihren Geräten verbinden (kein Mensch kauft ein Smartphone und das Betriebssystem getrennt wie früher beim PC) viel mehr Macht. Wer ein Gerät von Apple kauft, tritt ein in ein Apple-Universum, bei dem er sogar die Daten bei Apple speichert (ein iPad hat keinen Anschluss mehr für einen Speicherstick oder eine Micro-SD Karte).

Diese neue Welt hat aber auch Nachteile. Die Vernetzung von Geräten durch das Internet, die Nutzung des Internets für alles bedeutet auch, dass viele Nutzer nun sehr viele sensible Daten auf ihren Rechnern haben oder Geldgeschäfte mit den Geräten abwickeln. Um so größer ist der Schaden, wenn dies nun nicht mehr geht. Hatte man früher einen Festplattencrash, so waren vielleicht ein paar Texte weg. Heute können es alle Bilder des Kindes, Partners der letzten Jahre sein, die Steuererklärung und die Gefahr besteht, wenn man einen Virenbefall hat, das Betrüger vom Konto Geld abbuchen oder Verschlüsselungstrojaner wie Locky alle Daten verschlüsseln und nur gegen Bares den Schlüssel zum Wiederherstellen herausrücken. So gibt es heute eine Reihe von neuen Berufen, die sich mit IT-Sicherheit beschäftigen. Wie sollte es auch anders sein im Zeitalter der Digitalisierung kann man online ein Fernstudium IT-Sicherheit durchführen. Dazu noch neben dem eigentlichen Beruf. So schlägt man gleich 2 Fliegen mit einer Klappe. Man hat die finanzielle Sicherheit des bestehenden Berufs und nebenbei erlangt man durch die Weiterbildung eine Qualifikation die den eigenen Arbeitsplatz sichert und die Chancen auf einen besseren Job drastisch steigert. Das zeigt, worum es heute geht: nicht mehr die Hardware, nicht mehr die Software. Kommunikation, Services, Informationen, "das Netz" sind heute wichtiger als Geräte und Betriebssysteme. Die Branche der Informationstechnologie hat sich zur zweitgrößten branche in Deutschland gemausert.

Der Trend das Hardware immer unwichtiger ist, zeigt sich auch daran, dass man bestimmte Programme heute auf vielen Geräten haben kann. Google treibt dies auf die Spitze. Der Browser Chrome wird zum Eingangsportal zu einem Google Universum. Er läuft nicht nur auf x86 Hardware, sondern auch ARM-Prozessoren (z.B. in Handys, Raspberry PI) und zahlreichen Betriebssystemen (Linux, Mac OS, Windows, Android). Mit einem Konto kann man auf viele Services zugreifen und dies unabhängig vom Gerät. Allerdings ist man dann gefangen in einem Google Universum - es ist nicht so teuer wie das Apple Universum, aber dafür greift der Internet-Gigant alle Daten ab die beim Surfen entstehen - was man besucht, was einen interessiert oder welchen Inhalt die Mails haben die man bekommt und nutzt das für personalisierte Werbung, die die Haupteinnahmequelle von Google ist.

Artikel zuletzt geändert am 6.4.2016


Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.

© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Neues Hier werben Bücher vom Autor Buchempfehlungen Top 99