Der IBM PC

Ich will heute an ein Jubiläum erinnern – den IBM PC. Der eine oder andere der schon etwas Ahnung hat wird nun sagen „Jubiläum? Der IBM PC wurde am 12.8.1981 angekündigt!“, Ja aber in Deutschland war er erst im Frühjahr 1983 zu kaufen. Das ist nun 35 Jahre her. In diesem Blog geht es nicht um die Entwicklungsgeschichte des IBM PC, die habe ich meinem Buch und auf meiner Website lang und breit erzählt. Es geht um die Technik.
Als der IBM PC erschien, kauften sich natürlich auch die frühen Computerpioniere einen davon. Schon alleine, um zu sehen, was IBM produziert hatte. Die Einstufung schwankte stark. Lee Felsenstein, Mitgründer des ersten Computerclubs des „Homebrew Computer Clubs“ und beteiligt am Entwurf des Osborne 1 sah es positiv: „Wir schraubten das Gehäuse auf und sahen, dass Bausteine aus der Industrie verwendet worden waren, keine IBM spezifischen. Endlich hatte IBM die Mikrocomputerindustrie ernst genommen“. Andy Herzfeld, bei Apple angestellt dagegen. „Das Gerät war ein Witz! Es konnte weniger als die Rechner, die wir schon herstellten, ganz zu schweigen von dem, was in der Entwicklung war“ (weniger als ein Jahr später erschien von Apple die LISA, der erste Mikrocomputer mit einer grafischen Oberfläche).
Die Geschichte des IBM PC beginnt ein Jahr vor der Markteinführung. IBM hat eine Krisensitzung. Sie bemerken natürlich, dass immer mehr dieser Mikrocomputer verkauft werden. Dieser Markt boomte und IBM schaute nur zu. Alarmierender als der wirtschaftliche Aspekt war, was der bei IBM besonders gut aufgestellte Außendienst berichtete. Sie fanden immer mehr der Rechner in den Firmen die auch Großrechner einsetzen. Sie wurden genutzt für Dinge, die keinen Großrechner erforderten und die Anwender waren begeistert von ihnen. Mehr noch IBM verlor massiv an Wertschätzung. Sie galten als veraltet. Der wichtigste Zweck des IBM PC war es nicht, ein Verkaufsschlager zu werden (IBM sollte sich in den verkauften Stückzahlen enorm irren, es wurden viel mehr IBM PC verkauft als geplant) sondern die Wertschätzung bei den Kunden wieder zurückzugewinnen.
Al Loewe bekam das Okay für ein Konzept das viel Überzeugungsarbeit erforderte. Der IBM PC war in der Zeit und zu einem vertretbaren Preis nur entwickelbar, wenn er nichts von IBM enthielt. Keine IBM-Hardware, keine IBM-Software, keinen IBM-Kundendienst, Verkauf über den normalen Handel. Vor allem die letzten Punkte dürften gewöhnungsbedürftig sein. Denn es gab schon kleine Rechner von IBM, auch einen der Intel-Chips einsetze, aber sie waren immer eingebettet in den IBM-Vertrieb. IBM hatte größere Abteilungen für Marketing, Vertrieb und Kundendienst als für Entwicklung und Produktion.
Das erste was festgelegt werden musste, war der Prozessor. IBM besuchte Texas Instruments, Intel und Motorola und lies sich jeweils die neuesten 16 Bit Prozessoren präsentieren. Das sie 5 Jahre nach dem Erscheinen des 8080 nicht einen 8-Bitter nutzten war logisch, denn damit wäre sofort der Vergleich mit den schon etablierten Geräten gezogen worden. Texas Instruments hatte den langsamen TMS 9900 verbessert. Der TMS 9995 war so schnell wie der 8086 mit 5 MHz, schneller als der später genutzte 8088. Er schied aber bald aus. Meine Vermutung: der nur auf 64 kbyte begrenzte Arbeitsspeicher bot keine Möglichkeit sich von den 8-Bittern abzugrenzen. Es blieben der 8086 und 68000. Für den 68000 sprach, dass er ein Big-Endian Prozessor ist. Die Nomenklatur bezieht sich darauf wie Zahlen die mehrere Bytes belegen im Speicher abgelegt werden (16 oder 32 Bit Zahlen). Bei Big Endian enthält das letzte Byte die obersten 8 Bit, bei Litte Endian wie im 8086 dagegen die niedrig-wertigen Bits. Alle IBM Rechner arbeiten nach dem Big-Endian Prinzip, das vereinfachte den Datenaustausch denn der IBM PC war nicht nur als eigenständiges Produkt gedacht, sondern auch als intelligentes Terminal für einen Großrechner. Das Problem war, dass IBM mehrere Tausend Produktionsexemplare jedes Chips haben wollte, die in eigenen Labors auf Herz und Nieren überprüft wurden. Der MC 68000 war ein Jahr nach dem 8086 erschienen und zu dem Zeitpunkt hatte er noch einige Kinderkrankheiten. Angeblich war das der Grund für die Bevorzugung des 8086. Vielleicht hat auch Bill Gates eine Rolle gespielt, der den 8086 vorschlug. Die nicht von IBM stammende, aber logische Erklärung ist, die das der MC 68000 viel schneller war als der 8086. Er war in etwa so schnell wie der erst 1982 erscheinende 80286 und auf seiner Basis entstanden nicht nur Amiga, Atari ST und Macintosh, sondern auch die ersten Workstations von Sun und Silicon Graphics. Die Leistung war dann IBM wohl doch zu nahe an ihren Rechnern der „mittleren Datentechnik“. Zudem nutzte IBM nicht den 8086 sondern den 8088. Er hatte nur einen 8-Bit-Bus, brauchte für jeden Speicherzugriff daher doppelt so lange, was ihn um 40 % langsamer machte. Ein wichtiger Vorteil des 8088 war das er wegen des 8-Busses die 8 Bit Peripheribausteine des 8080 nutzen konnte und die waren seit Jahren in der Produktion, billig und es gab mehrere Hersteller, was den Preis weiter drückte.
Zuletzt nahm IBM nicht die 8-MHz-Version, sondern die 5-MHz-Version, was ihn nochmals langsame machte. Zusammen verlangsamte das den Rechner um den Faktor 2 gegen über einem 8 MHz 8086 und dem Faktor 5 gegenüber einem 8 MHz 68000. Um ein Übriges zu tun, wurde als Taktfrequenz nicht 5 MHz gewählt, sondern 4,77. Diese krumme Zahl kam aufgrund des NTSC-Signalkonverters zustande. Das war nämlich genau ein 4/3 der NTSC-Signalfrequenz von 3,58 MHz. Beide konnte man aus einem Takt von 14,3 MHz erzeugen. Das ersparte einen zweiten Quarzkristall im Wert von 50 ct und machte den Rechner weitere 5 % langsamer. Kurzum: Bei der Hardware sparte IBM maximal an Kosten, was sich aber dann nicht auf den Verkaufspreis durchschlug.
Eine praktische Rolle dürfte auch gespielt haben das Intel damals noch großzügig Lizenzen an Second-Source Hersteller vergab. Das war eine Bedingung von IBM: Sie wollten nicht von einem Hersteller abhängig sein. Schaut man sich die Chips auf einem IBM-PC-Mainboard an, so wird das auch deutlich. Nur der Prozessor stammt von Intel. Schon die Peripheriebausteine von NEC. Die zahlreichen TTL-Bausteine zur Adressaufteilung und Signalverstärkung von Motorola, Fairchild und Beckmann und die Speicherchips von AMD. In der Tat gab es nur drei Chips auf dem ganzen Board, die von IBM stammten, das waren die ROM Chips mit dem Bios. So wirklich gut geprüft scheinen sie bei IBM übrigens die Tausende von Samples nicht zu haben, denn das berühmte A20 Gate entging ihnen.
Die Kopie des damaligen Mikrocomputers geht weiter. Die unterste Preisklasse (Heimcomputer), aber auch ein Apple II kamen mit einem Anschluss für einen Kassettenrekorder und an einem Fernseher daher. Beim Apple noch verständlich, war er doch ein Rechner mit Farbgrafik und niedriger Auflösung, zudem war er damals schon 4 Jahre alt. Diskettencontroller kamen erst später von Apple. Ansonsten hatten diese Schnittstellenausrüstung aber nur Heimcomputer wie der VC-20, Ti 99 oder Sinclair ZX81. Bürocomputer, die es ja auch schon gab wie der Apple III, die CBM Serie von Commodore und andere hatten in der Regel einen Diskettenkontroller eingebaut, einen Anschluss an einen Monitor und einen Drucker. Das alles erforderte beim IBM PC Zusatzkarten: eine mit einem Diskettenkontroller, einen Textadapter zum Nutzen eines Monochrommonitors, eine Karte mit einer Druckerschnittstelle. Das war vor allem deswegen anachronistisch, weil die Basisversion schon 1.600 Dollar kostete, ohne diese Karten und Diskettenlaufwerke. Dafür bekam man einen kompletten Apple II mit Diskettenlaufwerken und Monitor. Ebenso hatte der Rechner ein BASIC (von Microsoft) im ROM wie die damaligen Heimcomputer. Dieses BASIC konnte aber nur auf Kassette speichern und lesen.
Die meisten IBM PC wurden mit Diskettenlaufwerken und Textadapter/Monitor verkauft. Das PC-DOS war in der ersten Version ein CP/M Klau und noch dazu ziemlich fehlerhaft. So konnte es nur die Disketten einseitig beschreiben, obwohl die Laufwerke zwei Schreib-/Leseköpfe hatten. Damit kam auch ein neues BASIC, das auf Disketten speichern konnte. Das belegte aber von der Diskette geladen weiteren Arbeitsspeicher.
Der Arbeitsspeicher war daher schon bei Auslieferung knapp. Auf der Platine gab es vier Reihen für 32 Chips. Geplant war allen Ernstes, den Rechner mit einer Bank (16 Kbyte, 8 x 16 KBit) auszuliefern. Doch das reichte nicht. Ausgeliefert wurde er mit 64 KByte (alle vier Bänke mit 16 KBit-Bausteinen belegt). Man konnte ihn auf 256 KByte erweitern, wenn man die Chips durch 64 KBit Exemplare ersetzte. Mehr ging nur über Zusatzkarten, die es mit 64 oder 256 KByte Speicherkapazität gab.
Der Ausbau auf mindestens 128 KByte war nötig, wenn man DOS laufen lassen wollte, da dieses auch Speicher belegte. Für eine Konfiguration mit zwei Diskettenlaufwerken, einem Monochrommonitor und einem umgelabelten Epson-Drucker musste man bei Erscheinen 4.575 Dollar ausgeben, selbst Anfang 1983 in Deutschland noch 10.000 DM (ohne Drucker). Nur zum Vergleich: ein Apple II entsprechend hochgerüstet mit 64 K Speicher, 80-Zeichendarstellung, Monitor und zwei Diskettenlaufwerken kostete rund 5.500 DM, also nur knapp die Hälfte mehr und man konnte damit sogar noch besser arbeiten. Farbgrafik oder überhaupt Grafik konnte der IBM PC nur mit einer weiteren Zusatzkarte darstellen und das nicht einmal hochauflösend. Es gab zur selben Zeit auch zahlreiche andere Rechner mit dem 16-Bit-Prozessor, die damals „MS-DOS-Kompatible“ genannt wurden. Sie hatten meist einen 8086 Prozessor, oft höher getaktet. Viele eine bessere Grafik oder zumindest Text/Grafikdarstellung ohne mehrere Karten einbauen zu müssen und fast alle hatten Floppys mit einer höheren Speicherkapazität, weil die schon damals nicht besonders hoch war.
Trotzdem wurde der IBM PC zum Renner. Der einfache Grund. Es stand „IBM“ drauf. IBM hatte in den Firmen einen legendären Ruf, die bauen keinen Scheiß. Damit war der Mikrocomputer salonfähig (war einige Jahre lang auch den anderen Herstellern nützte), vor allem wurde aber gar nicht erst nach Alternativen gesucht. Sehr schwer hatten es die MS-DOS Kompatiblen. Sie waren in etwa genauso teuer wie der IBM PC aber leistungsfähiger. Sie standen damit in direkter Konkurrenz, während jemand der Apple oder Commodore kaufte eine andere Hardwareplattform einsetzte und sich dessen auch bewusst war. Weil der Rechner aber so langsam war, fingen die Programmierer an MS-DOS zu umgehen. Sie nutzten nicht die Routinen, sondern direkt die einfacheren Biosroutinen oder sie umgingen beides. Viele Programme griffen direkt auf den Grafikspeicher zu, ohne das Betriebssystem zu bemühen. Nicht nur Spiele auch Textverarbeitungen. Bei Turbo Pascal musste man beim Setup angeben, ob man direkten Speicherzugriff wollte – das beschleunigte das Scrollen am Bildschirm deutlich. Die MS-DOS-Kompatiblen hatten aber einen anderen internen Aufbau. Die Programme liefen nicht auf ihnen, was verantwortlich für ihr Ausscheiden vom Markt war.
Sehr bald erschienen Nachbauten – IBM hatte das System ausführlich dokumentiert inklusive Biosaufrufen, Pinbelegungen etc. IBM hat wohl damit gerechnet, das der Rechner nachgebaut wurde. Das gab es ja schon: Der Altair wurde geklont (IMSAI 8080), der Apple II auch. Sie meinten aber, dass sie als große Firma alle Bauteile in so großen Mengen einkaufen, dass sie billiger produzieren könnten. Angesichts der hohen Verkaufspreise war es aber einfach, IBM im Preis zu unterbieten. Sehr bald gab es IBM PC Klone von zahlreichen anderen Computerherstellern. Sowohl von eingeführten Firmen, die auch größere Rechner herstellten wie Wang, NEC, NCR, Hewlett-Packard wie auch den Mikrocomputerherstellern wie Tandy, Commodore, Schneider, Apricot und wem das zu teuer war, der konnte noch weniger für einen „Taiwan-Kompatiblen“ ohne Marke ausgeben. IBM hatte auch ein Problem mit dem Markt. Er war zu kurzlebig für die Firma. So blieben die Preise des IBM PC lange Zeit konstant – woanders wurden die Rechner billiger, weil auch die Bauteile billiger wurden. Sie hatten auch andere Zeiträume im Sinn bei den Produktlebenszyklen. Ich habe ja schon in der Einleitung geschrieben, dass der IBM PC in Deutschland erst eineinhalb Jahre nach der Markteinführung in den USA erschien.
IBM machte Ende 1983 einen missglückten Versuch eines IBM PC als Heimcomputer. Der IBM PC junior krankte an einer schlechten Tastatur und dem Anschluss an den Fernseher. Das war für ein Gerät, das 1270 Dollar mit einem Diskettenlaufwerk kostete, einfach zu wenig. Wer nur einen Rechner zum Spielen wollte, war mit einem C64 mit einem Bruchteil des Preises genauso gut bedient und wer arbeiten wollte, brauchte einen Monitoranschluss und eine zweite Disk. Beides war nicht im Gerät vorgesehen.
Gut lief es noch beim IBM AT der erst 1984 erschien – der 80286 auf dem er aufbaut war da schon zwei Jahre alt. Doch danach hatte sich der Markt verselbstständigt. Andere Hersteller warteten nicht bis IBM den ersten Rechner mit einem 80386 vorstellte – Compaq war vorher da. IBM versuchte mit dem Personal System / 2 eigene Standards durchzusetzen – die Rechner hatten nun ein urheberrechtlich geschütztes Bussystem, den Microchannel, das zwar schneller war, aber nicht kompatibel zum alten System. Darauf ließen sich aber nur wenige ein. Karten dafür gab es wenige und die waren wegen de Lizenzgebühren an IBM teuer. PS/2 konnte sich nicht durchsetzen. Die Konkurrenz übernahm nur einige damit eingeführte Standards wie die VGA-Grafikdarstellung, das 1,44 MB Diskettenformat, die PS/2 Slots für Speicherplatinen und bis heute in jedem PC verbaut – eine neunpolige „PS/2“ Buchse für Tastatur und Maus.

3 thoughts on “Der IBM PC

  1. Hallo,
    Du vergisst die Vorteile des IBM-PC
    -stabiles Gehäuse
    -starkes Netzteil
    -sehr gute Tastatur
    Das A20 Gate wurde erst beim AT ein notwendiges Kompatibilitäts-Übel.
    Mit dem 8086 oder 68000 währe der Rechner durch 16-Bit Datenbus deutlich Teurer geworden. Erst durch die Entwicklung von passenden Chip-Sätzen wurde diese günstiger .
    Solange die Datenstrukturen <64K sind hat der 68000 keine signifikanten Vorteile. In den USA gab es den PC mit 16K RAM und Casetten-Interface zu kaufen.
    MSDOS, PCDOS benötigte 64K RAM.

  2. @Bernd
    Bei Big Endian enthält das erste Byte (das mit der niedrigsten Adresse) die obersten 8 Bit, …

    Es wäre hilfreich gewesen, wenn es den mc68008 schon gegeben hätte.

    @JF
    Auch bei Datenstrukturen <64K hat der 68000 ein paar Vorteile:
    – 16 (bzw. 14) Register, so daß ein relativ einfacher Compiler Code dafür erzeugen kann.
    – 32 Bit breite Register
    – Big Endian (wenn Assembler Code aus anderen IBM Projekten hätte verwendet werden sollen)

    Die Adressmodi des 68000 können nur einen Offset +/- <32k adressieren.

  3. @JF:
    Klar Tastatur und Monitor waren gut. Beim Netzteil teile ich deine Meinung nicht. Es reichte aus für die Karten. Als die erste Festplatte auf den Markt kam musste man eine Erweiterungsbox mit eigenem Netzteil kaufen. Erst der PC XT hatte ein Netzteil das genügend Leistung für die Stromversorgung der Festplatte hatte. Prinzipiell gab es aber bei anderen Computern die Möglichkeit Tastaturen auszutauschen auch wenn das damals wenige machten. Selbst beim Apple und bei Monitoren hatte man eh die freie Auswahl.

    Natürlich waren die 8 Bit Bausteine wie der 8255 viel billiger. Aber davon hatte der Kunde ja nichts. Im Gegenteil Es gab Rechner wie den Sirius 1 mit 8086 und 8 MHz – erheblich schneller mit besserer Grafik und Floppys und der kostete sogar weniger als IBM PC. Einen Vorteil kann ich darin nicht erkennen.

    Zum A20 Gate: Klar zum Problem wurde es erst bei 80286, aber wenn IBM so intensiv den 8086 überprüft hat wie sie sagen müsste ihnen der Überlauf-Fehler ja aufgefallen sein. Schlussendlich war der offizielle Grund für die Ablehnung des 68000 ja einige Kinderkrankheiten. Es gibt viele Anzeichen in der ganzen Geschichte das die Leute von IBM technisch von dem Mikrocomputermarkt keinerlei Ahnung haben. So ist ihnen nicht mal aufgefallen das PC DOS eine Kopie von CP/M war.

    @Bushmann
    Ich möchte mir nicht ausmahlen wie die Geschichte gelaufen wäre wenn der 68000 gewählt worden wäre. Das Problem waren ja die 64 K Segmente, auch beim Programmieren. Ich habe schon damals programmiert und überall schluf diese Grenze zu: bei globalen Variablen, Stacks … MS-DOS wäre nicht auf 640 K beschränkt gewesen, da der Adressbereich größer wäre. Durch die höhere Leistung hätte es wahrscheinlich auch eher eine grafische Oberfläche gegeben. Bedenkt man das noch 1995 die meisten PC nur unter DOS liefen, und das bei damals schon 4-8 MB speicher (von denen dann nur 1 MB richtig genutzt wurden), dann kann man erahnen wie viel Zeit man verloren hat.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.