Nichts ist so dauerhaft wie ein Provisorium

Was erwarten Sie, wenn eine Firma die in einem Markt dominant ist, aber ein Marktsegment bisher nicht besetzt hat, wenn sie in dieses vordringen will? Also nehmen wir mal an, Mercedes Benz will ein Elektroauto konstruieren. Was würde man von dem erwarten? Doch sicher, das es nicht nur teurer als schon existierende Modelle ist, sondern auch besser. Eine Firma, die seit 100 Jahren Automobile baut, wird es doch besser können als eine, die einfach handelsübliche Batterien zusammenlötet oder? Die Enttäuschung wäre wohl groß, wenn das Auto nur in einem kleinen Detail besser wäre, sonst aber nur teurer als jedes andere Auto auf dem Markt und es nicht mal von Daimler selbst stammt. Sicher würde der eine oder andere Mitbewerber sich einen Spaß machen und eine ganzseitige Seite in der Auto-Motor-Sport buchen mit der einzigen Botschaft „Herzlich Willkommen Daimler – ernsthaft“.

Nun der eine, oder andere andere, wird spätestens jetzt wissen, worauf ich raus will. Es geht um den IBM PC. Ich habe, weil ich gerade viel über Computerarchitekturen lese, mir vorgenommen mal bei der x86 Reihe deren Hardwareevolution zu skizzieren. Da fing ich gestern an, mit dem 8086. Verglichen mit anderen 16 Bit Prozessoren, war seine Architektur doch arg beschränkt, wenige Register, die umständliche Segmentadressierung von nur 1 MByte Speicher. NS 16032 und MC 68000 waren da schon andere Kaliber.

Als IBM Mitte 1980 an die Planung ihres IBM PC ging, gab es auf dem Markt zwei Prozessoren die schneller als der 8086 waren und auch mehr Speicher adressierten, zudem in der Programmierung einfacher waren. Das waren der MC 68000 und des NS 16032. Noch älter war der TMS 9900 und etwas abseits, weil die frühen Produktionsexemplare zahlreiche Fehler hatten, der in der Leistung ebenfalls bessere Zilog Z8000.  Mit Ausnahme des TMS 9900 der schon 1976 erschien, war keiner der Prozessoren breit eingesetzt worden. Sie waren zu neu und erst 1979/80 erschienen. (der TMS 9900 war im Ti 99/4 verbaut, einem Heimcomputer von Texas Instruments).

Welche Prozessoren würde man anstelle von IBM wohl untersuchen, wenn man aus Zeit- und Kostengründen keinen eigenen Prozessor einsetzen will? Nun aufgrund der Leistung würde man sich wohl zwischen dem MC 68000 und NS16032 entscheiden. Intel untersuchte den TMS 9900, Intel 8088 und MC 68000. Den MC 68000 haben sie nicht genommen, weil er damals neu war und es Probleme mit Kinderkrankheiten gab, welche die ein Jahr bzw. vier Jahre älteren anderen Chips nicht hatten. Das ist zumindest die offizielle Version. Den Autor erstaunt, warum der TMS 9900 in der Aufstellung dabei war. Dieser Chip ist älter, er kann nur 32 KWorte (64 kBytes) adressieren, hat eine sehr geradlinige Architektur aber diese sprach das RAM als Registersatz an, wodurch er schnelles RAM benötigte und auch deswegen nur mit 3 MHz Taktfrequenz gefertigt wurde. Erstaunlicherweise kam der TMS 9900 weiter in der Auswahl als der MC 68000, er unterlag letztendlich deswegen, dass man den Arbeitsspeicher nicht über 64 KByte RAM ausbauen konnte, da die ersten Rechner mit soviel RAM gerade erschwinglich wurden, wollte man kein Design, das keine Reserven für die Zukunft hatte. (obwohl IBM die ersten Rechner mit nur 16 KByte Speicher ausliefern wollte, Bill Gates konnte sie überzeugen ihnen wenigsten 64 KByte zu spendieren, sonst wären die MS DOS Verkäufe wohl 0 gewesen, weil es nicht in den Speicher gepasst hätte)

In allen anderen Belangen war der 8088 aber dem MC 68000 unterlegen – Geschwindigkeit, Adressbereich, Unkompliziertheit (keine Segmentregister) und Registerzahl. Alles war schlechter. Meiner persönlichen Meinung nach, ging es bei dem Rechner nur darum, dass da „16 Bit“ drauf stand, aber möglichst wenig Konkurrenz zu den größeren Rechnern zu haben. Ein MC 68000 wurde auch in der ersten Workstation Sun 1 eingebaut und die hatte die Hälfte der Rechenleistung einer VAX 11/780, immerhin ein Supermini an der Grenze zu den Großrechnern von IBM. Sonst hätte man wohl auch nicht ernstlich den TMS 9900 erwogen, der in Leistung und Adressbereich nicht besser als ein 8-Bitter war, aber eben als 16-Bitter galt.

Damit der Rechner nicht zu schnell war, nahm man auch nicht die verfügbare 8 MHz Version, sondern die 5-MHz-Version. Die taktete man nur mit 4,77 MHz, denn so konnte man das Signal aus dem NTSC-Takt für den Fernseheranschluss bei 14,3 MHz ableiten und sparte glatte 50 ct für einen Oszillator ein (der Rechner kostete im Handel 3500 Dollar). Und damit er auch nicht zu schnell wurde und man noch mehr sparen konnte, setzte man auch den 8088 ein, mit 8 Bit Datenbus. Damit um 40% langsamer als ein 8086, aber alle Peripheriebausteine der 8080 Serie konnten genutzt werden – seit 5 Jahren in der Produktion und damit billig.

Das ging dann so weiter. Kombinierte Text-/Grafikfähigkeiten gab es nicht. Entweder eine Karte für das Anzeigen von Text oder eine Grafikkarte (auf der der Text sehr pixelig aussah) oder zwei Monitore, (das war Multimonitorbetrieb 1981!)Auf dem Motherboard gab es keine Schnittstellen, die mussten per Karte nachgerüstet werden. Standard-Massenspeicher war in der Grundversion ein Kassettenrekorder. Disclaufwerke hatten keine höhere Kapazität als bei Konkurrenz und durch einen Bug im Betriebssystem konnte man auch nur eine von zwei Seiten beschreiben. Das Betriebssystem machte in der ersten Version auch nur wenig Nutzen vom Speicher, denn Programme waren im „.com“ Format auf 64 KByte Größe beschränkt – man hatte wohl CP/M zu perfekt inklusive der 8 Bit Beschränkungen abgekupfert.

Der Rechner war also nicht leistungsfähiger als andere verfügbare Modelle, er war nur erheblich teurerer. Ein gleich gut ausgestatteter Apple II oder CBM 80XX kosteten nur etwa die Hälfte. Der einzige Vorteil war, dass man den Rechner auf bis zu 256 KByte Speicher ausbauen konnte. Trotzdem reichten alleine die drei Buchstaben IBM aus, dass alle Erwartungen hinsichtlich Umsatzes und Gewinn weit übertroffen wurden. Der Rechner verdrängte sogar die wenigen anderen 16 Bit Rechner, die es schon gab und die besser ausgestattet waren wie den Victor Sirius vom Markt. Es bewahrheitete sich eine alte Weisheit im Einkauf: „Es ist noch niemand gefeuert worden, weil er IBM gekauft hat“.

Intel sah den 8086 als Provisorium, bis man den „Motorola Killer“, einen 32 Bit Prozessor, der den MC 68000 in allen Belangen schlagen würde, fertiggestellt hatte – mit dem Provisorium leben wir noch heute und den Überlauf bei 1 MByte, den MS-DOS nutzte, um die 64 KByte oberhalb des eigentlichen Adressraums anzusprechen, das berüchtigte A20 Gate wurde erst 2009 aus den Prozessoren als Feature gestrichen, die MS-DOS Unterstützung erst mit Windows 7 ebenfalls 2009. Nichts ist so langlebig wie ein Provisorium …

7 thoughts on “Nichts ist so dauerhaft wie ein Provisorium

  1. Moin,

    als der PC auf den Markt kam hatte ich schon einige bessere Systeme zuhause gehabt, z.b. Z8000, 510kb RAM, UCSD Multi Tasking – das wäre ganz nach Deinem Geschmack, da bin ich sicher. Sowas gabs sogar als Desktop Maschine, z.b. Olivetti M20. Z8000 mit bis zu 510kb RAM, 512×256 Monocrome Graphik, und mit PCOS, CCP/M und USCD/8000 standen, ein bessere Bootloader, und zwei Multitasking Betriebssysteme zur Verfügung.

    Der IBM/PC war dagegen ein Rückschritt, insbesondere was das Betriebssystem betraf. Aber dieser Rückschritt hatte System. Zum einen war QDOS ein schlechter CP/M86 Klon, aber gerade gut genug um CP/M86 und CP/M Code zu starten, ohne dass es mit CCP/M oder MP/M der Midrange Linie von IBM gefährlich werden konnte. Der IBM/PC war mit Absicht als Krüppel designed, nicht nur was die Hardware angeht, sondern vor allem was die Software angeht, damit der PC nicht dem Servergeschäft das Wasser abgräbt.

    ciao,Michael

  2. Daß der Ur-PC den 8088 statt den 8086 verwendete, hat einen einfachen Grund: Ein 16Bit-Chipsatz für den 8086 war damals nicht vorhanden. Und bis der entwickelt, gebaut und einsatzfähig war, wollte man nicht mehr warten.
    Man hat damals einen Geniestreich gelandet: Einen Crossassembler, mit dem aus vorhandene 8Bit-Programmen eine PC-Version gebaut werden konnte. So war man in der Lage, schnell die vorhandene Software auch für den PC anzubieten. Damit wurde der Umstieg einfacher, weil man schon bekannte Programme wiederfand. Da die alten 8Bit-Programme 1:1 übersetzt wurden, gab es die 64k-Grenze beim COM-Format. Eine Einschränkung, aber man konnte schon arbeiten bis neue 16Bit-Programme entwickelt wurden, die die Hardware auch nutzen konnten.

  3. @Michael K.
    Ich bin mir sicher, dass die Rechner von denen Du redest später kamen. Als der IBM PC konzipiert wurde, das war Mitte 1980 waren 512 KByte RAM extrem teuer. Ich vermute Du mienst eine der Workstations wie Sun 1 die aber erst nach dem IBM PC erschienen.

    @Elendsoft
    Es gab Chipsätze für den 8086 sie wurden von Intel zeitgleich vorgestellt und finden sich auch in der Hardwarebeschreibung. Man brauchte noch den Taktgenerator 8284, mehrere Latches 8288, den Buscontroller 8089 für ein Minimalsystem. Seattle computers von wo Microsoft ihr Qdos erwarb hatte scheon 1980 einen 8086 Computer im ECB Format und wegen der schleppenden Nachfrage ja gerade das Betriebssystem geschrieben, weil sich ohne die Add-on Karte kaum verkaufte

  4. Moin,

    Die Olivetti M20 kahm Februar ’82 auf den Markt, sehr kurz nach dem ersten PC. Die beiden wurden also Zeitgleich entwickelt. Die Cromemco hatte bis zu 16 Terminal unter UCSD unter bzw 8 Terminals + 8 Drucker unter CCP/M und war schon ’79 auf der Hannover Messe, wenn ich mich richtig erinnere. Der erste PC, der von meiner Firma erst genommen wurde war ein XT, und der kahm nach der M20 auf den Markt. Der PC mit Kassettenrecorder, und ohne die Option einer Festplatte war für uns ein Witz. d.h. für mich war eindeutig, dass der PC, und auch XT ein Rückschritt waren.

    Einen Sun Vorläufer hatte ich übrigens auch mal. Die Cadmus 9200 in zwei VME-Bus Schränken, die bis Y2K zusammen mit einer Tür meinen Schreibtisch gebildet hatten. Aber das war etliche Jahre später.

    ciao,Michael

  5. Was IBM richtig gemacht hatte:

    * Modulares Design
    * Ausreichend großes Gehäuse für Erweiterungen
    * Betriebssystem von einem Drittanbieter
    * Nicht perfekt, aber solide

    Diejenigen, die meckerten, dass das Gerät „nicht perfekt“ war, konnte man mit XT, AT und später dann dem 386er zeigen, dass auch mehr drin ist. Diejenigen, die „zu teuer“ schrien, kauften halt einen Klon. Und so begann der Welterfolg…

    Kai

  6. Was IBM noch richtig gemacht hat: Das Ganze als offenen Standard. Nicht wie Apple, die Jeden verklagt haben, der versucht hat in ihren Markt einzudringen.
    Dadurch gab es dann von Fremdherstellern recht schnell auch Steckkarten mit Funktionen, die man selbst nicht im Angebot hatte. Beispiel: Schnittstellenkarten mit mehr als 2 seriellen Schnittstellen, später Videoschnittkarten.

  7. Zu offenen Standard: der war auch beim Apple II offen. Karten konnte jeder fertigen. Das Gerät selbst war durch einige Patente geschützt, was jedoch nicht verhinderte dass man in Fernbost, wo Urheberrecht anscheinend bis heute unbekannt ist den Apple klonte. Erst beim Macintosh hat man das Gerät sowohl vom Standard her geschlossen gemacht wie auch Kartensteckplätze nicht vorgesehen – auch ein Grund warum der Mac niemals an den Markterfolg des apple II anknüpfen konnte

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.