Home Computer Computer Geschichte Site Map counter

Die Geschichte des PC Teil 2

Einführung

Die Geschichte des PCs begann als es für jedermann möglich wurde sich einen Computer zu kaufen. Wann der PC genau entstand ist noch heute unter Experten umstritten. Voraussetzung dafür war der Mikroprozessor der von Texas Instruments erfunden, aber von Intel zuerst kommerziell angeboten wurde. Der folgende Artikel schildert nun die wesentlichen Stationen der Geschichte des PC, der im Jahre 2000 erst 25 wurde! Da dieser Artikel sehr umfangreich ist habe ich Ihn in 3 Teile unterteilt. Sie lesen gerade:

und es gibt noch:

IBM betritt das Parkett

1981 war der Computer Markt beherrscht von 8 Bit Rechner. Zwar gab es seit 1978 die ersten 16 Bit Prozessoren, jedoch waren Maschinen auf Basis dieser Prozessoren noch zu teuer, und mit den verfügbaren 16 Kilobit RAMs benötigte man schon 32 Bausteine um den Arbeitsspeicher eines acht Bit Rechners abzudecken, daher waren acht Bit Rechner die günstigere Wahl. Die leistungsfähigen 16 Bit Prozessoren, vor allem der 68000 waren aber Basis für eine neue Klasse von Geräten: Workstations, Rechner die leistungsmäßig und preislich zwischen den PCs und den schrankgroßen Minicomputern lagen. Die Firmen, Sun , Apollo , Silicon Graphics und HP waren Führer bei diesen Rechnern.

IBM PC Auf dem Markt fehlten jedoch die Firmen die sonst größere Rechner anboten. Besonders vermisst wurde der Branchenführer IBM. IBM ignorierte lange Zeit den expandierenden Computer Markt. Bis immer mehr IBM Vertreter von Ihren Kunden hörten, dass Sie einfachere Tätigkeiten auf PCs ausführten. Dies bewog IBM zum Handeln, man rekrutierte ein junges Team, welches einen preiswerten PC entwickeln sollte. Das Ergebnis war total IBM untypisch: Der IBM PC enthielt keinerlei IBM Bausteine, verwendete keine IBM Software, wurde nicht vom IBM Service gewartet. Stattdessen griff man auf handelsübliche Bausteine die auch andere Hersteller benutzten zurück.

Als Prozessor verwendete man den 8088 Prozessor. Dieser war ein "beschnittener" 8086 Prozessor. Damit man die weit verbreiteten 8 Bit Bausteine verwenden konnte, hatte der 8088 nur einen 8 Bit Datenbus anstatt eines 16 Bit Datenbusses. Der 8086 Prozessor selbst war schon kein sehr leistungsfähiger Prozessor. Er konnte nur ein MByte RAM adressieren, und dies nur in Segmenten von 64 KB Größe. Dagegen konnte der Konkurrenz Prozessor MC 68000 von Motorola 16 MB direkt adressieren und verfügte über 32 Bit breite Register. Er war erheblich schneller als der 8086 Prozessor. Heute erscheint die Wahl von IBM kurzfristig, auch verschiedene Probleme die heute noch den PC verlangsamen haben ihre Ursache in der 8086 Architektur. Als der IBM PC vorgestellt wurde, war er jedoch äußerst fortschrittlich: Er war bis zu einem Megabyte ausbaubar (die ersten IBM PCs kamen mit 64 Kilobyte), war ein 16 Bit Gerät und er war natürlich von IBM.

Wahrscheinlich hat nicht einmal IBM vorausgesehen, wie erfolgreich dieser Computer werden sollte und wie schwer es sein würde den Standard zu erweitern. Allein der Name IBM bürgte bei vielen Geschäftsleuten für Qualität. Im Nu hatte IBM einen erheblichen Marktanteil am Computergeschäft. Als ich 1982 meinen ersten Computer - einen Ti 99/4A - kaufte, wollte ein "Business Man" - im weisen Hemd mit Krawatte - mal so eben einen IBM PC kaufen - für 11700 Mark. Dabei war bei IBM der PC ursprünglich nicht als eigenständiges Produkt gedacht, sondern als Ergänzung zum Großrechner. Man wollte den PC mit den Großrechner vernetzen, und so war die erste Zusatzkarte für den IBM PC, eine Emulation eines Großrechner Terminals.

Als man für den IBM PC ein Betriebssystem suchte, wandte man sich zuerst an Microsoft. Microsoft war damals führend bei den Programmiersprachen. Das führende Betriebssystem sowohl bei 8 wie auch 16 Bit Rechnern war jedoch CP/M. Als die IBM Manager bei Digital Research auftauchten, war der Firmengründer Gary Kildall jedoch nicht da und so kam es zu keinem Abschluss. Microsoft witterte ihre Chance und bot IBM an das Betriebssystem zu stellen. Nun war Eile geboten Microsoft kaufte kurzerhand die Rechte an einem rudimentären Betriebssystem, dass sein Entwickler schmerzhaft QDOS (für Quick and Dirty Operation System) getauft hatte für 50.000 Dollar auf und an IBM weiter. Microsoft taufte dieses CP/M nachempfundene Betriebssystem PC-DOS. Als IBM mitbekamen, dass sie einen Klone von CP/M gekauft hatten zahlten sie Digital Research 800.000 Dollar, mehr als die vierfache Summe die Microsoft erhielt nur damit diese IBM nicht verklagten.

Mit den Mängeln dieses zusammen geschusterten Betriebssystems hat auch heute noch der Anwender zu kämpfen. Bis zur Version 2.11 die 1982 erschienen war das Betriebssystem unvollständig und fehlerhaft.

Der Mac - der erste grafische PC

Sehr bald kamen die ersten Klones des IBM PC auf den Markt. Die ersten Rechner waren nur MS-DOS kompatibel, viele Programme die, auf den Bildspeicher oder das BIOS direkt zugriffen liefen auf diesen nicht. Compaq ließ das IBM BIOS nachprogrammieren und brachte den ersten portablen Klone auf den Markt. Danach kamen in rascher Folge immer mehr kompatible Maschinen auf den Markt. Zum Erfolg von IBM trugen diese Kompatiblen auch bei, denn es gab dadurch eine viel größere Basis für Software Entwickler. IBM sah die Klones ähnlich wie Apple aber nur als unliebsame Konkurrenz an.

LISA Apple verlor massiv an Marktanteilen. Der Nachfolger des Apple 2, der Apple 3 speziell als Geschäfts-PC konstruiert war ein Flop. Man erkannte das man um den IBM PC begegnen zu können einen erheblich moderneren PC anbieten musste. Man entwickelte einen PC mit grafischer Benutzeroberfläche. Die Grundlagen dafür wurden schon in den siebziger Jahren im Forschungspark von Xerox entwickelt, die jedoch die Möglichkeiten nicht erkannten. Steve Jobs erkannte jedoch die Chance und warb zahlreiche Leute von Xerox ab. Die Lisa 1983 vorgestellt war der erste PC der auch eine Maus verwendete. Der Lisa getaufte Rechner war aber viel zu teuer. Daher begann man eine Spar-Version der Lisa zu entwickeln. Den Macintosh - benannt nach einer in den USA populären Apfelsorte. Basierend auf dem schnellen 68000 Prozessor war der Macintosh mit einer grafischen Benutzer Oberfläche ausgestattet.

Der erste Mac Der Macintosh hatte aber zwei Mängel: zuerst gab es für ihn zu wenig Software, zum anderen aber wollte Steve Jobs diesmal alleine das Geschäft machen. Er startete den Macintosh nicht mit Erweiterungssteckplätzen aus. Das ROM war so geschützt dass man es nicht kopieren konnte. Dagegen gab es sehr viele IBM kompatible Clones. Diese Rechner steigerten den Umsatz an Software für den PC und festigen den Marktanteil von IBM. Später wurde der Macintosh geändert, so dass er erweitert werden konnte.

Für den Apple Macintosh entwickelte Microsoft die Software. Dies war Microsofts Einstieg in die Software-Programmierung. Gleichzeitig erkannte Microsoft den Nutzen einer grafischen Benutzeroberfläche. Diese Entwicklung von Windows begann. Die ersten Versionen waren nichts anderes als ein Aufsatz auf DOS, es gab zu wenige verfügbare Programme und ein offensichtlicher Nutzen war nicht erkennbar. Auf den PCs erfreute sich das Konkurrenzprodukt von Digital Research GEM einer wesentlich höheren Beliebtheit, da es im Gegensatz zu Windows auch auf kleineren Rechnern lief auch auf den Atari ST lief eine GEM Version. Erst mit der Version 3.0, 1990 nach 5 Jahren war Windows so weit entwickelt dass der kommerzielle Durchbruch kam. Zwischen Apple und Microsoft entbrannte Ende der achtziger Jahre ein Prozessstreit, weil offensichtlich war, das Windows nur eine schlechte Mac OS Kopie war. Letztlich war Apple aber nicht erfolgreich, das Gericht beschied, man könnte das "Look and Feel" nicht patentieren lassen. Zum zweiten mal war Microsoft mit einer Kopie erfolgreich....

Heimcomputer der Spitzenklasse

Atari 520 STIn den achtziger Jahren jedoch florierte zuerst der Heimcomputer Markt, obwohl immer weniger Geräte auf dem Markt erschienen stieg die Leistungsfähigkeit dieser jedoch enorm an. Diese Entwicklung ging wieder von Jack Tramiel aus. Nachdem er sich mit dem Management von Commodore überworfen hatte, kaufte er kurzerhand die Firma ATARI, die er vorher als Chef von Commodore fast an den Ruin getrieben hatte, auf. Er entwickelte innerhalb von wenigen Monaten einen Rechner auf Basis des 68000 Prozessors, den ATARI ST. Das Team war das gleiche das schon den C64 entwickelte. Er war grafisch wie der Mac. Dieser wurde zu einem enorm niedrigen Preis angeboten. Die ersten Geräte kosteten mit 1600 Mark nur ein Viertel eines gleichwertigen Macintosh oder PCs. Dabei bekam man einen Rechner dessen Prozessor auch in Workstations verbaut wurde und der erheblich leistungsfähiger als IBM PC war.

Commodore kam dadurch in Bedrängnis. Man entwarf einen Konkurrenz Rechner zum ATARI, den Amiga, ebenfalls auf Basis des MC 68000 Prozessors und ebenfalls grafisch. Doch der Erfolg des C64 ließ sich nicht wiederholen. Beide Firmen konnten allerdings es nicht schaffen zum kommerziellen Geschäft aufzuschließen, obwohl die Rechner in ihrer Leistungsfähigkeit einen PC schlugen. Die Stärke des Ataris war sein guter S/W Monitor, die grafische Benutzeroberfläche GEM war auch lange Zeit auf PCs erfolgreicher als Windows. Darüber hinaus verfügte der Atari ST über eine MIDI Schnittstelle, durch die er in Musikstudios einzog, als erster Rechner hatte der ST ein CD-ROM und auch ein preiswerter Laserdrucker war verfügbar.

Amiga 1000 Der Amiga war dagegen leichter zu erweitern mit Steckplätzen und seine Stärke lag in der Videobearbeitung, so nutzten ihn viele für den Videoschnitt oder für Titel oder einfache Effekte. Beide Geräte waren im Vergleich zu einem PC leistungsfähiger und bedienungsfreundlicher, doch bald zählte nur eines : Komptabilität. Nur noch IBM kompatible Geräte hatten Erfolg. So aber ließen sich die Kosten für die Weiterentwicklung der Ataris und Amigas nicht wieder hereinholen. Zudem begann Motorola die Entwicklung des MC 68000 Prozessor einzustellen zugunsten des Power PCs. Schlussendlich gingen beide Firmen Anfang der 90er Jahre Konkurs.

In dieser Zeit verdrängte der PC auch den restlichen Heimcomputer Markt. Die Vorteile eines Heimcomputer: geringe Kosten, Spielefähigkeit, großes Angebot an Spielen, wurden durch billige Farbmonitore und die ersten Soundkarten vom PC übernommen, obgleich man heute nicht für 500-1000 Mark einen PC erhält - das war Mitte der achtziger Jahre der Preis eines 8 Bit Heimcomputers.

Heute sind von der Vielfalt an Geräten nur noch zwei Architekturen übrig geblieben. Die Apples und die PCs. Die Rechner werden sich immer ähnlicher, selbst bei den PCs sind besondere Ausstattungen wie der berührungsintensive Bildschirm des HP 150 oder die wechselbare Festplatte des Tandom PAC , oder auch nur einen besonderes Design nicht mehr vorhanden. Es sind austauschbare "Kisten" geworden.

SX, DX oder was?

Compaq Deskpro 386//25 Bei der Rechner Architektur gab es innerhalb der letzten zwanzig Jahre zwar erhebliche Fortschritte, jedoch basieren auch heute noch die PCs auf der uralten 8086 Architektur. Die erste Erweiterung war der 80286 Prozessor, der ein vollwertiger 16 Bit Prozessor war. Er konnte 16 MB RAM direkt ansprechen, und war erheblich schneller als der 8086 Prozessor. Doch das Wechseln des Prozessors alleine verbesserte die Software nicht. Um den zusätzlichen Speicher ansprechen zu können und gleichzeitig kompatibel zum alten Prozessor zu sein entwickelte Intel einen zweiten Betriebsmodus. Zwischen diesen beiden Modi muss das Anwendungsprogramm wechseln. Allerdings ist ein rückwechseln vom Real (8086) in den Protected Modus (80286) nicht möglich. Auch DOS blieb so auf 1 MB Speicher beschränkt.

Mit dem 80386 Prozessor gab es 1986 eine Wende auf dem PC Markt. Zum ersten Mal wurde ein PC mit dem neuen Prozessor nicht von IBM sondern von Compaq vorgestellt. Der 80386 Prozessor war der erste vollwertiger 32 Bit Prozessor von Intel. Inzwischen hatte aber Intel unliebsame Konkurrenz. Als das Geschäft in den siebziger Jahren noch nicht so gut lief hatte man von anderen Firmen Patente gegen Patente an der 8080 ff. Technologie getauscht. Nun begannen diese Firmen ihre 8086 und 80286 Nachbauten legal zu bauen, nahmen damit aber Intel Marktanteile weg.

Zum Verkauf Schlager wurde daher die 386 SX Variante: der Datenbus war nur 16 Bit breit, so dass die Bausteine für den 80286 Prozessor weiter verwendet werden konnten. Beim 8086 hieß der entsprechende Schmalspurprozessor noch 8088, nun aber änderte man aus Marketinggründen den Namen nicht, und als überzeugende Botschaft fungierte der Slogan "3 ist mehr als 2". Das leuchtete ein und 1989 verdrängten billige 386 SX Rechner die 80286 Nachbauten vom Markt.

Der 486 Prozessor der 1989 erschienen war zuerst kein Renner. Die 386 er Bausteine von AMD erfreuten sich größerer Beliebtheit. Grund dafür war, das zwar der Prozessor schnell war, jedoch man noch immer noch unter DOS arbeitete. Dafür reichte der AMD 386 aus. Nun zeigte sich zum wiederholten Maße die Allianz von Intel und Microsoft: durch den Erfolg von Windows 3.1 1992 benötigte der PC mehr Arbeitsspeicher, größere Festplatten, und einen schnelleren Prozessor. Auch hier gab es eine billigere Variante, den 486 SX: Es war ein 486 ohne Fliesskommaprozessor. Auch er schaffte es die 386 CPUs von AMD aus dem Markt zu verdrängen. Ähnlich wie bei Windows 3.1 kurbelte Microsoft den Umsatz an Pentium Prozessoren 1995 an, als Windows 95 erschien.

Pentium MMX Immer dann wenn Clones Intel zu nahe rückten hat Intel seitdem einen Trumpf im Ärmel. Zuerst versuchte man die Konkurrenz mit neuer Hardware abzuhängen. Man Integrierte 1995 MMX - die parallele Verarbeitung von mehreren Integer Befehlen - und pries es als die Beschleunigung für Multimedia. Auch wenn es kaum Software gab die es unterstützte und der Gewinn doch eher klein war. Hauptsache der unwissende Verbraucher merkt sich "MMX brauch ich ". Doch schon 1999 klappte das Spiel mit ISSE - einem wesentlich weitergehenden Konzept - nicht mehr, obgleich nun wirklich Geschwindigkeit herauskam, denn schon ein Jahr früher hatte AMD mit 3D Now eine einfachere Erweiterung vorgestellt, die Intel die Schau stahl.

Inzwischen verlegt sich Intel mehr auf Druck auf die Motherboard Produzenten (Sie stellen auch die Chipsätze für die Prozessoren her, die man für ein Motherboard braucht) und wechselt alle Naselang den Prozessorsockel, inzwischen auch gleich das RAM. So gibt es für den 1997 vorgestellten Pentium II/III inzwischen 4 Sockel für Platinen und 3 für Chips ( Celeron , Pentium, FPGA), in der gleichen Zeit wurde das RAM auch mehrfach gewechselt (von SIMM über DIMM über SD-RAM DIMM, über 100 und 133 MHz SDRAM DIMM zu RAMBUS DIMM), so das man viel Glück braucht um nur einen ein Jahre alten Rechner aufzurüsten. Natürlich steigt auch die Performance - aber man hat mehr das Gefühl, das man sich so die Konkurrenz vom Hals halten will.

So ist es nur logisch, das AMD - der einzige von ehemals vier Intel Nachbauern, der noch mithalten kann - für den Athlon Prozessor sich einen eignen Sockel und eigenen Chipsatz ausdachte. Und da der Prozessor erstmals schneller als ein Pentium III ist, sogar damit Erfolg hat.

Power PC: Der Sieg von RISC

Motorola die immer vor Intel einen Prozessor mit einer neuen Architektur entwickelten, erkannten Anfang der neunziger Jahre, dass die alte 68000 Architektur nicht zukunftssicher ist. Sie entwickelten zusammen mit IBM und Apple einen neuen Prozessor, der zwar den alten Code des 68K verarbeiten sollte jedoch auch neue Instruktionen beinhalten sollte dieser Chip sollte ein RISC Prozessor sein.

Während der achtziger Jahre zeigte sich immer mehr, dass das bisherige Prozessor Design: der Prozessor verwendet immer mehr und komplexe Befehle, von Anwendungen nicht genutzt wurde. 20 Prozent der Befehle wurden nur 80 % des Codes benutzt. Warum sollte man also nicht einen schnelleren Prozessor mit nur 20 Prozent der Befehle entwickeln? Dieser könnte diese schneller durchführen und billiger produziert werden. Diese Architektur nennt man RISC. Der Power PC Prozessor von Motorola ist kein echter RISC Prozessor, da er noch die alten 68 Codes mit ausführen muss. Jedoch benötigt ein Power PC Prozessor für dieselbe Rechenleistung wie ein Intel Prozessor nur ein Drittel der Transistoren und bis zum G3 keinen Kühlkörper, da der Stromverbrauch geringer ist. Noch stärker am RISC Design orientiert ist der Alpha Prozessor von DEC (heute HP). Bei ähnlichen Transistorzahlen wie ein Pentium II arbeitet er bei über größeren Taktfrequenzen, besitzt mehr Register und hat zudem noch den L2 Cache integriert. Er ist fast doppelt so schnell wie ein Pentium Prozessor gleicher Taktfrequenz.

Auch Intel hat seit dem Pentium keinen 8086 Kern im Prozessor mehr. Stattdessen führen kleinere RISC Unterprozessoren parallel Befehle aus. Eine spezielle Logik zerlegt die 8086 Befehle in kleinere RISC Prozessor Befehle. Ein Pentium III ist eigentlich eine Art 8086 Emulator.

Nachdem schon seit 1991 in Workstations 64 Bit Prozessoren verbreitet sind, gibt es ab 2001 auch von Intel solche Rechner. Der als " Itanium " bezeichnete erste 64 Bit Prozessor von Intel verwendet eine neue Architektur die erheblich näher an RISC ist. Die erste Generation hat zwar teilweise beeindruckende Werte, ist insgesamt aber noch nicht der große Wurf. Ab Ende 2002 soll die zweite Version des Itanium dies ändern. Gleichzeitig wird AMDs erster 64 Bit Prozessor auf den Markt kommen, der anders als der Itanium kompatible zu der x86 Serie ist und "nur" einen zusätzlichen 64 Bit Modus enthält.

Intel wird den Übergang sicher wie Microsoft bei Windows langsam vollführen. Schon zwei mal musste die Firma erleben, dass das abweichen von Standards riskant ist. Der Erste Versuch war Ende der achtziger Jahre der Intel 860. Ein 32 Bit RISC Prozessor, der in Geschwindigkeit die x86 Linie in den Schatten stellte - aber eben nicht kompatibel war. Heut fristet er sein Brot als Mikrocontroller z.B. in Laserdruckern. 1994/5 kam dann der Reinfall mit dem Pentium Pro. Der Pentium pro integrierte auf dem Chip den L2 Cache der mit voller Taktgeschwindigkeit lief. Die Herstellung war aber dadurch zum einen teuer (hoher Ausschuss bei den Caches) und zum anderen war er nur mit 32 Bit Befehlen wirklich schnell. Bei 16 Bit Befehlen dagegen langsamer als ein Pentium. Vielleicht hatte sich Intel auch zu sehr auf Microsoft verlassen, in dem Glauben Windows 95 würde ein 32 Bit Betriebssystem werden. Tatsächlich waren aber viele Systemtreiber noch in 16 Bit Programmiert und unter Windows 95 hängte ein Pentium 120 den wesentlich teureren Pentium Pro mit 150 MHz ab. Selbst die neueste Windows ME Version besitzt immer noch 16 Bit Treiber...

OS/2 - der vergebliche Versuch die Clones abzuwürgen

Mitte der achtziger Jahre gab es noch einen zweiten wichtigen Einschnitt: IBM wollte unabhängig von den Klone Herstellern werden, und konzipierte eine neue Rechner Architektur. Ähnlich wie bei Apple ging dies jedoch schief. Die Kunden bevorzugten lieber die Kompatiblen Geräte der Konkurrenz. Die MCA Architektur war richtungweisend indem Sie viele der alten 86 Standards über Bord kippte und auf der moderneren 286 Architektur basierte. Aber die Slots waren geschützt und damit gab es keine Clones nur Rechner von IBM. Seit Mitte der achtziger Jahre hat IBM dadurch auch die Macht verloren Standards zu kreieren die sich als Industriestandart allgemein durchsetzen. So ist heute noch der letzte gemeinsame Standard für Grafikkarten die VGA Auflösung und für Diskettenlaufwerke das 1.44 MB Format.

Dabei hatte IBM doch schon den Prestigeerfolg auf seiner Seite. Obgleich ein IBM PC deutlich teurer als ein anderer Marken PC (etwa von Compaq, Apricot, Commodore oder Schneider) war und man für einen Taiwan Clone nur ein Drittel eines IBM AT zahlen musste (welche Verdienstspanne...) war IBM Marktführer, denn bei Preisen von 7.000-20.0000 DM gingen die PCs noch Ende der achtziger Jahre noch vornehmlich an Geschäftskunden.

Auch im Software Bereich wollte IBM neue Wege gehen. Gemeinsam mit Microsoft schrieben sie ab 1987 das Betriebssystem OS/2. OS/2 hatte jedoch zuerst keine grafischen Benutzeroberfläche, lange Zeit war ihm kein Erfolg beschieden, weil die Hardwareansprüche zu hoch waren und es zuwenig Software gab. Gleiches galt auch für Windows bis zur Version 3.0 die mit TrueType Fonts und erstem Multitasking erfolgreich wurde. Im Gegensatz zu OS/2 ersetzt Windows aber nicht das DOS sondern sitzt auf ihn auf. Das gilt auch noch für Windows ME. Gerade das aber machte den Verkaufserfolg von Windows aus: Es saß auf dem DOS auf und wer Probleme mit ihm hatte, arbeitete einfach weiter unter DOS. Man holte den Verbraucher bei dem ab was er schon kannte. OS/2 war das was bei Microsoft Windows NT war - ein echtes 32 Bit Betriebssystem, stabil aber es stellte auch große Ansprüche an die Hardware. OS/2 wurde zu spät grafisch und blieb in den Hardwareansprüchen immer zu hoch. Erst als Windows 3.1 schon fest im Markt etabliert war, wurde mit OS/2 V3 Warp eine Version herausgebracht die etwas moderatere Ansprüche an die Hardware hatte und auf den Endanwender zugeschnitten war. Es war jedoch zu spät, viele Anwender nutzten nun Windows und wollten nicht mehr umsteigen.

Seit seiner Urversion 1991 hat sich Linux zu einem sehr interessanten Betriebssystem gemausert. Inzwischen kann man mit ihm genauso wie mit Windows arbeiten. Der eigentliche Erfolg ist aber der das dies alles ohne kommerzielle Interessen erfolgte. Es ist erstaunlich das die Zusammenarbeit von Programmierern in der ganzen Welt inzwischen zu einem Betriebssystem geführt hat, das den wesentlich älteren Produkten Windows oder Mac OS in nichts nachsteht. Schuld daran ist auch das Internet , das ich seit Anfang der neunziger Jahre zuerst langsam, dann seit 1994/95 explosionsartig entwickelte. Übrigens eine Entwicklung die Microsoft verschlafen hatte. Man setzte mehr auf das hauseigene MSN Netzwerk.

Die Zukunft

...kennt noch niemand. Jedoch kann man schon Aussagen über Trends machen. So starb DOS endgültig mit Windows XP. Die Firma setzt inzwischen voll darauf durch ihre Marktmacht auch in andere Bereiche einzubrechen und dort die Standards zu setzen. So schreibt Windows CE den Prozessor vor und mit der .NET Initiative will man eine Konkurrenz zu Java schaffen.

Intel steht heute an denselben Problemen wie schon Motorola Anfang der neunziger Jahre. Eine Weiterentwicklung der 86er Architektur dringt immer kleinere Geschwindigkeitsvorteile und erzeugt immer komplexe Prozessoren. Der Itanium soll diese langsam ablösen.

Es ist ein Anachronismus wenn in einer so schnelllebigen Branche der Code der meisten Programme auf dem des 386 er basieren. Dieser wurde schon vor mehr als 15 Jahren eingeführt. Bestimmte Teile der Consumer Variante von Windows basieren sogar noch auf 16 Bit Code. Leicht erkennbar an der DOS-Box welche Sie begrüßt mit:

Microsoft(R) Windows 98
(C)Copyright Microsoft Corp 1981-1999.

Da 1986 die erste Version von Windows erschien, zeigt diese Meldung deutlich das Windows bis zur XP Version noch immer auf dem 16 Bit DOS von 1981 basiert.

Heute verbraucht ein PC die meiste Rechenleistung für Spiele. Schon heute sitzen auf 3D Grafikkarten Grafikprozessoren die eine größere Rechenleistung als der eigentliche Prozessor besitzen. Intel wollte dieser Konkurrenz durch Eingliederung von speziellen Befehlen für Grafikoperationen den Garaus machen. Doch eigene Grafikcontroller von Intel konnten sich auf dem Markt nicht durchsetzen. Es ist aber er anzunehmen, dass in Zukunft zu dem eigentlichen Prozessor weitere Signalprozessoren sich gesellen. Sei es für die Verarbeitung von komplizierten Videosignalen oder für die Berechnung von Echtzeit Grafiken. Natürlich könnten auch ganz neue Hauptprozessoren mit speziellen Befehlen für die Signalverarbeitung die heutigen Prozessoren ablösen. Denn für die tägliche Arbeit reicht die Rechenleistung schon heute mehr als aus.

Die heutigen Prozessoren haben viele Architekturmerkmale von Großrechnern übernommen. So die Staffelung der Caches, die Kühlung der Chips, die Verwendung von immer mehr Bits (64 sind heute Standard) sowie die Verarbeitung von mehreren Daten mit einem Befehl. Wenn dieser Trend weiter anhält so muss man nur ansehen welche Architektur die heute schnellsten Rechner haben: es sind Parallelrechner bestehend aus Tausenden von PC Prozessoren mit eigenem Speicher. Eine Übertragung des Konzeptes auf einen Chip hätte auch den Vorteil dass die Signale kleinere Strecken zurücklegen müssten, da auf einem Chip mehrere Prozessoren sich befinden und die Signale zumeist nur innerhalb eines Subprozessors laufen. Für die heute rechenintensivste Anwendungen (Grafik und Multimedia) wäre ein solches Konzept sogar ideal geeignet, denn man könnte z.B. ein Bild in 4, 8, 16... Unterbilder zulegen die separat berechnet werden können. So gewinnt z.B. der Athlon gegenüber dem Pentium III an Geschwindigkeit weil er mehr Rechenwerke intern beschäftigen kann, also prinzipiell mehrere kleine Prozessoren parallel in einem Chip beinhaltet.

Der Multimedia Trend wird dafür sorgen, das auch in Zukunft immer leistungsfähigere Rechner verlangt werden. War Multimedia vor einigen Jahren noch das Abspielen von Musik zu Computergrafiken, so ist es heute das Dekodieren von MPEG Videos und realitätsnahen 3D Grafiken für Spiele, und in Zukunft vielleicht das Erschaffen von virtuellen Welten. Der Flaschenhals ist derzeit noch die Internetanbindung für den Privatmann. Denn die Multimedia Fähigkeiten fordern viel Bandbreite. Schon bei den MP3 Files, deren Raubkopieren so oft beklagt wird, sieht man das Dilemma. Für das Laden einer CD (74 min), benötigt ein analoges Modem für 74 Min. Ca. 4 Std.

Von der Software der Zukunft können wir nur hoffen dass Sie noch bedienungsfreundlicher und Anwendertoleranter (früher sagte man fehlertoleranter) meist wird sie aber nur umfangreicher.

Inzwischen hat auch der PC Konkurrenz bekommen. Der PC war und ist in seiner Auslegung eine Alleskönnermaschine. Doch schon in den achtziger Jahren waren Heimcomputer, mit denen man gut spielen konnte, wenn auch nur bei einigen Geräten arbeiten, sehr erfolgreich. Heute sind dies Spielkonsolen. Durch geschickter Kombination der Hardware und kein 300 MB Betriebssystem welches Rechenleistung frisst ist es möglich bei einer Spielkonsole zu einem Bruchteil des Preises mit einem PC gleichzuziehen. Neuere Geräte haben auch die Möglichkeit im Internet zu surfen und machen dafür einen PC überflüssig. Nicht umsonst kommt inzwischen sogar von Microsoft eine Spielkonsole: Die X-BOX. Allerdings basierend auf herkömmlicher PC Technologie.

Fürs Internet prädestiniert - ein Medium zur Informationsbeschaffung - wären Web Pads - DIN A4 große TFT Displays mit einem Stift zum Anklicken. Die könnte man wie Bücher benutzen, gemütlich im Sessel lümmeln, anstatt vor einem Monitor zu sitzen. Derzeit gibt es davon nur Prototypen, doch das Marktpotential ist enorm: Es wollen viele ins Internet, aber nur wenige wollen dafür einen umständlichen PC der noch dazu 2000 Mark kostet. Wenn es da eine bequemere und billigere Alternative gibt, so könnten diese Geräte dem PC Marktanteile abnehmen. Schlussendlich sollte man sich eines vergegenwärtigen: Auch wenn die PC-Prozessoren von Intel, AMD & Co als das Maß der Dinge erscheinen, so machten sie 1999 nur 2% des Gesamtmarktes an Prozessoren in Stückzahlen aus. Da von 1981 bis 1999 aber der Preis eines PCs von 11700 DM auf rund 2000 DM sank, im gleichen Zeitraum aber der Preis für den Prozessor von 100 auf 400 DM stieg, macht Intel mit seinen 2 % Marktanteil 50 % des Gesamtumsatzes beim Prozessormarkt - Dies könnte sich mit kleineren spezialisierten Lösungen ändern. Doch dazu müssten die Kosten für LCD Panels erheblich sinken und vor allem auch eine Handschriftenerkennung weitgehend fehlerfrei sein.

27 Jahre PC

Teilt man die Zeit seit Januar 1975 als der Altair 8800 angekündigt wurde in 3 Perioden von 9 Jahren so stimmen diese recht gut mit wichtigen Meilensteinen in der Entwicklung des PCs überein.

1975-1984: Der PC wird erwachsen

Den 1975 erschienen Altair 8800 würde man nach heutigen Maßstäben allerhöchstens als Elektronikbauskasten bezeichnen. Ausgabe über Leuchtdioden, Eingabe über Kippschalter, User Interface war Maschinensprache, in Binärschreibweise einzuklopfen. Doch schon 1978 gab es Rechner die nur Leute ansprachen die nichts mit Elektronik am Hut hatten. Der Apple II hatte eine echte Tastatur, Bildschirm, Floppys und einen BASIC Interpreter als User Interface. Anfang der achtziger Jahre gab es die ersten Anwendungsprogramme die Datenbanken, Tabellenkalkulation und Textverarbeitung und man konnte am Rechner im Prinzip alle Büroaufgaben meistern, nur natürlich mit einem nach heutigen Maßstäben primitiven User Interface. Dies änderten die 1983 erschienene LISA und der 1984 erschienene Macintosh. Damit verfügte im Prinzip schon 1984 die Rechner über alle technologischen Errungenschaften die sich auch heute in den Rechner finden.

1984-1993: Der PC setzt sich in der Arbeitswelt durch

Prägend in dieser Epoche war weniger, das viel neues erfunden wurde. Vielmehr wurden grafische Oberflächen verbessert und setzten sich ab 1990 auch auf der Intel Welt durch. Ähnlich erging es textorientierten Oberflächen. Diese wurden perfektioniert. Gleichzeitig sanken aber die Preise für einen PC rapide. Der PC setzte sich gerade weil sich nicht so viel tat, in der Bürowelt durch. Schlussendlich ist es schon teuer Mitarbeiter an neue Arbeitsmittel zu gewöhnen, auch ohne das jede Softwareversion mit neuen Features aufwartet.

In der gleichen Zeit verdrängte die Intel Architektur alle anderen PCs die auf dem Markt waren, seien sie nun von Atari, Commodore oder Arm. Am Ende blieb nur noch Apple übrig so das man seither von einem Mac oder einem PC spricht und damit entweder einen Rechner von Apple oder einen auf Basis eines Intel/Windows Systems meint.

1993-2002: Der PC zieht in die Wohnzimmer ein

Realistisch betrachtet stimmt immer noch die Aussage des DEC Chefs von 1977, das es keinen Grund gibt für eine Privatperson einen PC zu kaufen. Ist man ehrlich, so rechtfertigen einige Briefe die man damit tippen kann, oder die einmal im Jahr anfallende Steuererklärung kein 2000 DM Gerät mit monatelanger Einarbeitungszeit. Trotzdem setzte sich in dieser Zeit der PC im Wohnzimmer durch: Dank Internet und Spielen. Internet ist eine Kommunikationsmittel, das wenn es dies nicht gäbe, erfunden werden muss. Auch wenn der objektive Nutzen eher gering ist spricht es doch Grundbedürfnisse des Menschen nach Information und Kommunikation an. Sehr bald gehörte man zum Abseits wenn man noch nicht "surfte". Gerade Eltern sind in der Wohlstandsgesellschaft auch froh wenn die Kinder am Computer spielen - leider eine traurige Tatsache.

Propagiert wird seit Jahren der PC als Zentrale für die Elektronik im Haus, seien es Unterhaltungsgeräte wie Videorecorder und DVD Spieler, wie auch für Überwachungsausgaben. Fehlend sind bislang Standards sowie Vernetzungsmöglichkeiten. Schlussendlich ist ein PC heute zu laut, zu komplex und zu umständlich zu bedienen. Stattdessen beobachtet man einen eher umgekehrten Trend: Es gibt immer mehr neue elektronische Geräte: MP3 Player, DVD Spieler, Set-Top Boxen für Internet oder Webpads, Videorecorder mit kleinem PC. Auch so ist der Umsatz der Hardwarehersteller gesichert. Nur der Firma Microsoft nicht, die deswegen an einem Standard für derartige Geräte arbeitet. Es wird spannend wie sich der PC in den nächsten 10 Jahren weiterentwickeln wird...

2002 -: Die Krise und evt. ein neuer Anfang?

Im Jahr 2001/2002 bröckeln die Umsätze nahezu aller Computerfirmen, schuld daran ist ein stagnierender Markt. Warum sollte man sich auch heute einen neuen PC kaufen? Ein 200-300 MHz Rechner recht für viele aus. Man kann damit die Arbeit erledigen (und geschäftlich genutzte PCs machen noch die meisten Verkäufe aus) im Internet surfen und auch spielen. Natürlich gibt es immer Nischen wo man nie genug Rechenleistung haben kann: Bei den neuesten Spielen, Videoschnitt oder bei Servern. Doch der normale Nutzer gibt nicht 1000 € für ein neues Gerät aus, wenn er mit seinem alten zufrieden ist.

Es ist allerdings auch nicht zu übersehen, das der Computer in den nächsten 20 Jahren weniger frei sein wird als bisher. Schon gibt es CDs mit Kopierschutz - nicht für Software sondern für Lieder, damit man sie nicht am Computer kopieren kann. MP3 Sites werden reihenweise von der Musikindustrie mit Prozessen überzogen. Bei Scannern ist eine Urheberrechtsabgabe fällig wie bei Kopierern. Im September 2003 wurde das Urheberrecht so geändert, dass das Recht der Privatkopie bei Musik nur noch auf dem Papier steht. Da man keine Kopierschutzsperren umgehen darf, darf man im Prinzip nicht mehr kopieren ohne sich strafbar zu machen.

Es gibt nur noch Windows mit persönlicher Registrierung und Hardwareverdongelung. Am Horizont zeichnet sich TCPA ab - eine Initiative die nur noch zertifizierte Programme zulässt. Das mag auch ein Schutz vor Viren sein, jedoch auch eine Möglichkeit Monopole die heute schon existieren noch mehr vor Mitbewerbern abzuschotten. Die nächste Windows Version wird wahrscheinlich nur noch "Sichere" Programme ausführen können. Nein, das sind nicht Windows Anwendungen die nicht mehr abstürzen, sondern Programme die von Microsoft als sicher zertifiziert wurden. Ist dies nicht der Fall, so wird man diese weder installieren noch ausführen können. Es steht zu erwarten, dass Microsoft dies nach der Salamitaktik einführt, bis keiner mehr daran vorbeikommt. Dann wird es nach dem Sterben von alternativen Hardwareansätzen und Betriebssystemen für einen PC auch noch das große Softwaresterben geben, denn nur die größten dürften sich noch eine MS Zerfizierung leisten können.

Die ersten 64 Bit PCs - Nichts dazugelernt?

Nachdem es schon seit langem bei anderen Plattformen 64 Bit Prozessoren gibt, zieht der PC Markt Mitte 2003 nach: Der Athlon 64 erscheint vom AMD. Dies ist ein 64 Bit Prozessor, der aber auch noch die bisherigen 32 Bit Programme ausführen kann, und dies bei einer sehr guten Performance. Das Erscheinen ist keine Überraschung, denn der Prozessor ist sein 2001 angekündigt. Doch wie sieht es mit der Unterstützung aus? Wo sind 64 Bit Programme und 64 Bit Betriebssysteme? Nur wer Linux einsetzt kann 64 Bit Programme ausführen. Windows bietet noch keine 64 Bit Unterstützung. Dabei gibt es ein 64 Bit Windows, aber nur für den Intel Itanium Prozessor, einen sündteuren Server Prozessor. Erst Mitte 2005 erscheint auch ein 64 Bit Windows - Allerdings setzt nun auch Intel die 64 Bit Erweiterung von AMD ein (zum ersten Mal nutzt Intel eine Technologie eines Mitbewerbers).

Es scheint als würde sich die Geschichte wie beim Intel 386 wiederholen, auch dieser erschien 1986 und es dauerte 10 Jahre bis 1995 auch Windows für den Privatverbraucher 32 bittig war. (Bis die letzten 16 Bit Altlasten aus dem System flogen dauerte es sogar bis Windows XP, 2001). Die enge Beziehung zu Intel hat auch bei Microsoft Tradition.

Das Ende der Fahnenstange ?

Waren PC Käufer in den letzten 25 Jahren gewohnt immer mehr Leistung für ihr Geld zu erhalten, so hat sich dies zumindest bei dem Anstieg der Taktfrequenz geändert. Ende 2002 hatte Intel die 3 GHz Marke überschritten und 3 Jahre später lag die Marke bei 3.8 GHz - Ein magerer Anstieg um 23 % in 3 Jahren, während sich sonst die Taktfrequenz in dieser Zeit verdoppelte. Bei AMD war der Abfall nicht so drastisch, doch auch spürbar. Dies liegt daran, dass die Athlon Prozessoren noch niedriger getaktet sind. Die Angabe "Athlon 4000" bedeutet nur, dass er in etwa so schnell sein soll wie ein Pentium 4 mit 4000 MHz, in Wirklichkeit läuft er mit 2400 MHz.

Experten sind sich einig : Die Taktfrequenzen werden nun langsamer ansteigen, vor allem weil die Leckströme und damit der Stromverbrauch bei höheren Taktfrequenzen rapide ansteigen. Stattdessen kündigen alle Hersteller Multiprozessor Cores an. Das sind im Prinzip mehrere CPUs auf einem Prozessor, allerdings zuerst niedriger getaktet als ein einzelner Prozessor. Ohne Software die diese Architektur ausnützt bringt dies keinen Zuwachs an Geschwindigkeit. Es ist daher noch nicht sicher ob sich diese Architektur durchsetzen wird, wenn sie ab 2006 auf dem Markt verfügbar ist. Schlussendlich nutzt auch heute Software viele der seit 1995 neu hinzugekommenen Funktionseinheiten wie MMX, 3Dnow!, SSE, SSE2,SSE3 und HT nicht aus.

Der PC Markt ist in den letzten Jahren abgeflaut. Zwar wächst er immer noch besser als die meisten anderen Branchen doch nicht mehr so stark wie früher. Es fehlen Gründe sich einen neuen PC anzuschaffen, zumal die Geschwindigkeit immer langsamer steigt. Die Nutzungsdauer eines PC hat sich auch in den letzten 4 Jahren von 35 auf 42 Monate erhöht - Tendenz weiter steigend.

Mehrkernprozessoren (2006-

Die "Net Burst2 Technologie des Pentium 4 erwies sich im Rückblick für Intel als teure Sackgasse. Sie basierte darauf, dass man den Takt eines Prozessors stark steigern kann und war für eine hohe Taktrate optimiert. AMD verfolgte bei seinen Athlons und Operons mehr die Strategie mehr Einheiten gleichzeitig zu betreiben. Die Verlustleistung steigt bei hohem Takt stark an und bald waren neue Prozessoren von Intel einfach am Ende der Möglichkeiten wo man sie noch kühlen konnte ohne aufwendige Systeme einzusetzen. Dadurch konnte AMD zwischen 2001 und 2006 gravierend zulegen und verkaufte in Europa teilweise mehr Prozessoren als Intel.

Intel stellte seine Produktion um und vertreibt nun Mehrkernprozessoren. 2006 sind es zwei pro Prozessor, Ende 2007 sollen 4 folgen und 2008 schon 8 Stück. Bei zwei Prozessoren ist der Gewinn vor allem in der Bequemlichkeit gegeben: Da ein Großteil der PC Software nur einen Prozessor nutzt ist immer einer frei und man muss nicht mehr warten (sofern man auf den Prozessor wartet und nicht die Festplatte oder das Netzwerk das Nadelöhr ist). Mehr und mehr wird Software auch mehrprozessorfähig sein. Der Großteil der Software welche heute viel Rechenleistung benötigt wie Videoschnitt oder Spiele ist relativ einfach anzupassen.

Mehrkernprozessoren ermöglichen viel einfacher Virtualisierung. Damit ist gemeint, dass man unter einem Betriebssystem ein anderes emuliert. Es gibt zahlreiche mögliche Anwendungen dafür auch für Normal PC Benutzer. Windows Benutzer können Linux testen und Linux Benutzer können Windows Programme ausführen die es für Linux nicht gibt. Man kann ein Programm testweise installieren ohne sein Arbeitssystem zu kompromittieren. Da jedes Betriebssystem aber Rechenleistung braucht macht dies erst bei einem Mehrkernprozessor richtig Sinn, Sonst fühlt sich das ganze "zäh" an. Man wird sehen ob immer mehr Kerne auch immer besser ausgenutzt werden. Die Mehrkernarchitektur kommt von den Großrechnern wo sie seit Jahrzehnten eingesetzt wird. Allerdings ist dort auch ein Rechner für zahlreiche Benutzer zuständig oder die Software wurde speziell dafür entwickelt.

2006 verabschiedete sich auch Apple von den Power PC Prozessoren und setzt nun auf Intel, ist damit aber erfolgreicher denn je, denn nun kann man auch Windows XP installieren, was Apple sogar unterstützt - Damit entfällt die Entscheidung Windows oder Apple.

Windows Vista kam 2007 heraus und durchlief eine enorme Wandlung im Laufe der Entwicklung die länger dauerte als bei jedem Betriebssystem zuvor. Angekündigt als Antwort auf die Sicherheitsprobleme von Windows mit einem neuen System, das nicht kompromittiert werden kann und einem Kompabilitätssystem für alte Software sollte es aufräumen mit den zahlreichen Sicherheitsupdates. Ein neues Dateisystem sollte eine sehr schnelle Suche nach Inhalten auf der Festplatte erlauben. Das am meisten kritisierteste war eine Umsetzung der Forderungen der Unterhaltungsindustrie nach einem Digital Rights Management welches es nicht erlaubt, das man hochauflösende Videos oder Material mit einem DRM Schutz einfach kopiert oder die Datenströme im System abgreift.

Was heraus kam war eine grafisch aufgepeppte Version mit dem DRM Schutz, aber nicht den anderen wirklich nützlichen Ideen. Der Sicherheitsschutz ist nach wie vor löchrig weil man permanent vom System gefragt wird ob man etwas wirklich möchte und bei der Installation von Software keine Alternative hat als dies ab zunicken. Echte Sicherheitswarnungen gehen dann irgendwann unter weil man dauernd gefragt wird.

Spielekonsolen erfreuen sich immer mehr Beliebtheit, auch weil deren Leistung in den letzten Jahren kräftig angestiegen ist. Sie können nun auch mehr als nur Spielen und sollen nach Willen der Hersteller mit Browser, Mailprogramm und ähnlichem auch teilweise den PC ersetzen.

Der Multimedia PC - lange angekündigt  als die Revolution - wird wohl nicht den Siegeszug im Wohnzimmer antreten. Vielmehr erobern kleine Clients mit dezidierten Funktionen das Wohnzimmer, wie Festplatten-Videospiele oder Festplatten Rekorder, Satelliten Receiver mit Festplatte, Streaming Clients für Audio und Video.

Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.


© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Neues Hier werben Bücher vom Autor Buchempfehlungen Top 99