Die schlechtesten Computer – der IBM PC / AT

Ja ich mache vor nichts halt, nicht mal vor dem IBM PC. Warum ist er ein schlechter Computer? Weil wir mit den Einschränkungen über 20 Jahre lang arbeiten mussten die man durch die fix-fix eingeführten Standards hatte. Aber fangen wir mal an: IBM wollte einen neuen Computer, der besser als die etablierten Rechner ist. Was haben sie dafür ausgesucht?

  • Den 8088 Prozessor, der 40% langsamer als ein 8086 ist und diesen nur mit 4,77 MHz getaktet (eine 8 MHz Version des 8086 war schon verfügbar)
  • Die Hauptplatine fasste epochale 16 kbyte RAM, weniger als beim zwei Jahre vorher vorgestellten Apple II+ mit 48 kbyte RAM, mit Steckkarten konnte man den Speicher auf 256 kbyte ausbauen
  • Der Bus wurde weil es schnell gehen sollte, weitgehend vom IBM System/23 Datamaster übernommen, das einen 8085 Prozessor einsetzte. Schon nach wenigen Jahren war er zu langsam für aktuelle Grafikkarten und Festplatten.
  • Es gab einen Textadapter der nur Texte darstellen konnte und einen Colorgrafikadapter der 320 x 200 Pixels (genauso viel wie gängige Heimcomputer die einen Bruchteil kosteten) darstellen konnte – allerdings benötigten beide Adapter separate Monitore.
  • Die Diskettenlaufwerken konnten beide Seiten einer Disk beschreiben, aber im Betriebssystem wurde nur das einseitige Beschreiben unterstützt
  • Und es gab ein enorm fortschrittliches Betriebssystem namens PC-DOS, das eine Kopie von CP/M-80 war, nur war es sicher nicht das Betriebssystem das dieser Hardware angemessen war und es hatte auch noch über 300 Bugs.
  • Zuletzt: das Netzteil war mit 63,5 Watt Leistung zu schwachbrüstig. Wer zwei Diskettenlaufwerke einbaute konnte in der Regel nicht mal alle Steckplätze belegen, der Anschluss einer Festpatte erforderte eine Erweiterungsbox mit einem 130 Watt Netzteil.
  • Und dafür war er so billig: Nur Konsole ohne Diskettenlaufwerk 1.600 Dollar, mit zwei Diskettenlaufwerken, 128 kbyte RAM und Drucker sogar 4.600 Dollar. Da bekam man zwei gleichwertig ausgestattete Apple II dafür….


Das alles wären genug Punkte um den Rechner schon einen Spitzenplatz in dieser Liste zu geben. In der Tat kam auch der Verkaufserfolg erst, als der IBM PC/XT vorgestellt wurde – mit dem fehlerkorrigierten MS-DOS 2.01, dass nun auch Unterverzeichnisse unterstützte und damit eine Festplatte sinnvoll unterteilte. Das Netzteil des XT reicht aus um eine Festplatte ins Gehäuse einzubauen und der Speicher betrug nun 256 kbyte auf der Hauptplatine, erweiterbar auf 640 kbyte. Alle warteten dann auf die nächste Generation – schließlich gab es sieben Monate nach dem Erscheinen des IBM PC schon Intels nächsten Chip mit dem 2086 Prozessor. Doch erst Mitte 1984 kam der IBM AT – nun mit 286 Prozessor, aber sonst? Keine Nutzung des Protected Modes mit DOS, nur ein neues Diskettenformat und die EGA Grafik, die nun endlich auch Text darstellen konnte. Das war es … IBM nutzte die neue Hardware nicht effektiv in einer Zeit als sie noch die Markt hatten neue Standards zu setzen. Als sie dann neue Standards setzen wollten ging das aus verschiedenen Gründen nach hinten los (bei OS/2 durch die fehlende DOS Kompatibilität und die hohen Hardwareansprüche und beim MCA Bus durch die hohen Lizenzgebühren- So gibt es als kleine Reminiszenz an eine Krücke die man beim IBM AT einführte um mehr als 1 Mbyte Speicher unter DOS anzusprechen selbst heute noch in jedem neuen x86 Prozessor das berüchtigte A20 Gate.

Vor allem zementierte er die Vormachtstellung einer Firma mit einem besch… Betriebssystem, die natürlich über mehr als ein Jahrzehnt nur wenig an diesem änderte, schließlich verdiente man ja damit gutes Geld. Sie machte nichts anderes als IBM, die ja auch die Plattform kaum weiterentwickelte, schlie0lich verdiente man ja mit ihr viel. Als IBM etwas ändern wollte hatte sie nicht mehr die Marktmacht das durchzusetzen und sie taten die falschen Schritte indem sie versuchten andere Hersteller sowohl durch das Betriebssysten wie Bussystem auszuschließen. Das klappt aber nicht mehr wenn man selbst an Marktanteilen verliert.

Das wäre gewesen wenn wohl IBM einen vernünftigen PC gebaut hätte? Einen mit MC68000 Prozessor, vernünftiger Grafik, einem von Unix abstammenden Betriebssystem? Man wagt ja gar nicht dran zu denken…. Rechner dieser Art gab es ja von Sub, Apollo und Silicon Graphics. In den achtziger Jahren schaute man neidisch auf diese Workstations, die so viel besser als die PC’s waren. Aber der Rechner dürfte ja nicht zu leistungsfähig sein, um den Großrechnern keine Konkurrenz zu machen. Bei 8 MHz erreicht ein MC68000 immerhin rund 625 dhry/s. Eine VAX 780 die in etwa vergleichbar in der Geschwindigkeit zu einem IBM 370 (Model 158) Großrechner war, leistet 1442 dhry/s. Da heißt: ein solcher PC würde 40% der Rechenleistung eines Rechners bieten, für den IBM 2,2 Millionen Dollar haben will – selbst wenn das gute Stück dann 10.000 Dollar kostet wäre das noch ein Schnäppchen gewesen. Da trifft es sich doch gut, das ein 8088 mit 4,77 MHz nur 72 drhy/s leistet. Oder?

20 thoughts on “Die schlechtesten Computer – der IBM PC / AT

  1. persönliche Anekdote am Rande:
    mein masterpiece hab ich aufm QL erstellt, ein Kassenprogramm mit perfektem Warenwirtschaftssystem, Abt. de Luxe, das gilt für manche Teile noch bis heute. Kompiliert natürlich und dadurch schnell. Bedienbar von jeder Omi.

    Datenbasis im Hintergrund des WWS war Psions Archive, dem Blogbetreiber vollkommen unbekannt, ein Fehler, IMO.

    Als die Suite auf den PC übertragen wurde,
    transferierte ich den Quelltext auf einen AT-Clone seriell (mit Krokodilklemmen und Büroklammern statt Stecker) als Text. In Modula 2 wurde das dann implementiert.
    Erweiterungen gab es für den Filialbetrieb mit automatischer Zentralen-Kommunikation per Modem-Wählleitung. Alles automatisch, dank MS-DOS Batch-Programmen.
    Das Handbuch war ohne Gefasel 270 Seiten dick.
    EAN, Kassenansteuerung, Nadeldrucker waren nun möglich.
    Das Kassenprogramm war 360 kB groß, kompiliert.
    Entwicklungsende war 1989.

    Das Jahr 2000-Problem nahm das Gesamtsystem mit Bravour (ich selbst war guten Mutes, aber unsicher, weil ich längst die Details vergessen hatte und mich auch seit ’89 nicht mehr damit beschäftigt hatte) – vor einem Jahr ereilte mich die Nachricht, dass es – obwohl immer noch de Luxe und Fehlerfrei, durch etwas Neues ersetzt werden musste.
    Die Hardware war der Grund: es gab keine aktuellen Rechner mehr zu erwerben, die das alte DOS 3.x erlaubten, das mein 360 kB-Programm als Unterbau benötigte.

    Für mich ein Ende in Ehren. 😀

  2. Wenn schon beim C64, dann muss die Softwareseite hier auch noch etwas stärker kritisiert werden. Wir haben hier ein „Betriebssystem“, das nicht annähernd in der Lage ist, irgendwas von der Hardware zu abstrahieren ausser dem Zugriff auf Diskette und Festplatte. Drucker? Jedes Programm musste für jedes Druckermodell seine eigenen Treiber mitbringen. Grafik? Es gab im BIOS (vielleicht auch in DOS, aber ich erinnere mich nicht mehr genau) gerade mal eine Funktion, mit der ein Pixel gesetzt werden konnte. Die Geschwindigkeit war vergleichbar mit einer FOR-Schleife, die auf dem C64 lief. Also hat jedes Programm direkt in Grafikspeicher und Register geschrieben, was zur Folge hatte, dass mindestens bis zu Super VGA Grafikkarten die Hardware der VGA, EGA, CGA und Textadapter nachgebildet werden musste. Die Liste ließe sich weiterführen, aber vieles ist glücklicherweise zu lange her, als dass ich es noch so genau wüsste.

  3. Ist ja witzig: Für den IBM PC AT ist ein 63,5W-Netzteil zu schwachbrüstig.

    Mein Schreibtisch-Mini-PC wird von einem 65W-Notebooknetzteil versorgt. Darin werkeln ein Athlon II X2 235e (2*2,7GHz) und 2GB RAM sowie ein BluRay-Laufwerk, HD-Grafik, 2* GBit-LAN…

    Wenn man da mal den Rechenenergieverbrauch bzw. Rechenwirkungsgrad vergleichen würde, also Ws/dhry…

  4. Ja, aber die Hardware hatte zu der Zeit auch noch ganz andere Strukturbreiten.
    Die älteste gesicherte Information ist, dass eine Voodoo 1 von 3dfx anno 1996 500nm hatte und wirklich kochend heiss wurde. Allerdings auch bei etwa 500.000 Transistoren.

    Neulich hatte ich meinen C128 D im Blechgehäuse am Strommessgerät hängen und zeigte mir im Leerlauf (Basic) ca. 23 Watt an.
    Bei zusätzlichem Zugriff auf das eingebaute 5,25″ Diskettenlaufwerk erhöhte es sich auf ca. 27 Watt.
    Bei einem Spiel (Bubble Bobble) bleib der Verbrauch bei eher 23 Watt.

    Ich vermute darum, dass es zumindest der Commodorehardware egal war, ob sie belastet wurde, oder nicht.

    Übrigens leistet das Netzteil ich glaube 60Watt.

    Wobei ein 8088 aber schon leistungsfähiger sein dürfte, als der alte 6510 von MOS.

    Leider bin ich zu jung für diese Zeit (28 Jahre) und habe nur noch Bruchstücke von der Commodorezeit meines Bruders im Kopf.

    Mich würde interessieren, ob diese Geräte im Vergleich zu ihrer Leistung als (Energie)effizient angesehen werden konnten/können.

    Beste Grüße,
    Stefan

  5. Entschuldigung, ich muss verbessern:
    Es sollte heissen die älteste gesicherte Information, -die ich kenne- ist, dass eine Voodoo 1 von 3dfx anno 1996 500nm hatte und wirklich kochend heiss wurde. Allerdings auch bei etwa 500.000 Transistoren.

    Gruß Stefan

  6. Über Jahrzehnte hinweg sind Stromverbrauchwerte von Rechnern nicht vergleichbar.

    So waren auf dem Board des IBM rund 60 Bausteine der TTL Gruppe die nicht gerade sehr stromsparend waren. Es wurden mindestens drei Karten für ein Minimalsystem (Diskettenkontroller, textgrafikadapter und Paralelle Schnittstelle) nötig, da der Speicher nur 16 kb betrug meistens noch einige Speichererweiterungen zu je 32 kb und ich bin mir nicht sicher ob der Monitor nicht auch vom Gehäuse mit Strom versorgt wurde.

    Immerhin war er schneller als der ENIAC, der rund 150 MW konsumierte….

  7. Interessant wirds, wenn man ein System mit der Architektur und Performance von vor >20 Jahren auf einem Chip mit neuester Technologie (32nm, vcore 0,9V) nachbauen würde.
    Dann würde der ganze Rechner wohl unter 1 Watt Verbrauch haben. (embedded Systems mit AMD Geode 800 kommen schon auf 5W idle herunter)
    Zusammen mit einem Schwarz-grün-OLED 14″ Display um die 5 Watt. Farb-LED-TFT dann 10W.

  8. Oh ja, das hab ich mich auch schon mal gefragt.
    Aber ich glaube, solche Versuche wirds wohl nicht geben.

    Was mir aber in den Sinn kommt, ist zb. einen alten Rechner, wie den C64 in einen PIC Controller zu quetschen.
    Ich frage mich, ob ein solcher diesen emulieren könnte?
    Und ob die Leistung reichen würde?
    Man bräuchte eigentlich kaum externe Komponenten. Wahrscheinlich ein paar EEPROMs, da wohl der eingebaute Speicher nicht reichen wird, vermute ich.

    Gruß
    Stefan

  9. zu was kann man heute auf einen Chip bekommen:

    – 64kByte RAM sind kein Problem, selbst aktuelle embedded chips haben mehr Cache.
    – 64kByte Flash oder EEPROM sind schon eher ein Problem, aber mit einem full custom
    design wird man das ggf. auch bauen können.
    – für den I/O wird ein PHY Chip benötigt, der sehr niedrig integriert ist, und die
    erforderliche Spannungen verträgt.
    d.h. ein Nachbau mit nur zwei Chips wäre möglich, aber sehr teuer.

    Aktuelle Embedded Geräte auf Basis von ARM / MIPS / Coldfire bestehen üblicherweise aus vier Chips:
    – SOC mit CPU
    – RAM (16 Bit breit, mehr geht meißt nicht in einen Chip)
    – Flash
    – PHY (I/O)

    das is einer der Gründe, warum immer noch 8051 und 8049 verwendet werden, da sind CPU + RAM + ROM/Flash auf einem Chip, und es wird nur noch ein PHY benötigt.

  10. Ok, ich hätte auch lieber eine m68k basierenden PC gehabt, als einen x86.

    Aber die wirklichen Designprobleme ware noch andere:
    – DOS war nicht Hardwareunabhängig wie das Vorbild CPM.
    Bei CPM Rechnern gab es Gerätetreiber für jegliche Art von Hardware, mit einer
    relativ sauberen OS Schnittstelle.
    Daraufhin mußte jede Applikationssoftware selbst an der Hardware rumgrabbeln,
    und ähnlich aufgebaute Rechner, mit besseren Detaillösungen ware nicht kompatibel
    genug.
    Daraufhin kamen die Clones auf, die so identisch wie möglich sein mußten.

    Dieses Problem begleitet uns immer noch, das Hardware/Software Interface im PC
    ist immer noch nicht sauber.

    – Beim PC ist Tastatur/Bildschirm die Konsole, und es ist nicht sauber
    implementiert worden, daß die Konsole ein anderes Device sein kann.
    (bei CPM und später beim Amiga war es relativ einfach möglich ein serielles
    Terminal als Konsole zu konfigurieren.)
    Das hat dann 10 Jahre später zu den KVM Switchen geführt, und heute zu einem
    ganzen Zoo von iLO/DRAC/was auch immer um einen Server komplett fernbedienen zu
    können.
    Server haben heute immer noch einen VGA Anschluß, und oft braucht man auch
    heute noch Tastatur und Bildschirm um einen PC Server zu Installieren.

    – Die ISA Slots waren alle äquivalent. Das ist zwar sehr schön, wenn man einen
    Slot verbrannt hat, aber sehr läßtig, wenn man zwei identische Karten benötigt.
    Das führte dann erst zu Jumpergräbern auf den ISA Karten, und später zu
    speziellen Setup Disketten und „Plug and Pray“ Karten.

    Apple und andere haben das vorher schon besser vorgemacht.

    Es gibt heute noch Probleme mit der Numerierung von Ethernet Schnittstellen
    im Betriebssystem und am Gerät.

    – Etliche Schnittstellen am original PC waren zu billig ausgeführt, und haben
    Probleme gemacht, oder sind an Überstömen abgebrannt.
    o Tastatur Schnittstelle
    o parallele Schnittstelle
    o seriellte Schnittstelle
    o Maus Schnittstelle
    o Joystick Scnittstelle
    Man hätte das ordentlich machen können, und z.B. überall RS-232 verwenden können.
    In diesem Fall wären auch keine teuren Stecker erforderlich gewesen, RJ45 ist im
    RZ Betrieb gut genug für eine serielle Schnittstelle.

    später kamen dann noch einige zusätzliche Unglückliche Entscheidungen hinzu:

    – Der VGA Stecker ist nicht wirklich für eine saubere Bildschirmdarstellung
    geeignet. Und es gab zu der Zeit sowohl 13w3 als auch 3w3 Stecker, die beide
    deutlich besser waren.

    – Die Tastatur wurde mehrfach verschlimmbessert.
    Die original IBM PC Tastatur hatte noch links neben der , und
    links neben dem .
    (Und war rechts unten, wo man es wirklich nicht aus Versehen
    getroffen hat.)
    Mit der AT Tastatur ist dann links neben die gewandert, und mit der PS2
    Tastatur ist dann links neben das
    gewandert.

  11. Kleine Korrektur: Die erste Version von MS-DOS war hardwareunabhängig. Es gab anfangs auch jede Menge „nur MS-DOS“ kompatible wie z.B. den DEC Rainbow den Tulip oder den Sirius 1 mit teilweise erheblich leistungsfähiger Hardware.

    Zu den Schnittstellen wäre noch zu sagen dass man alle zusätzlich kaufen musste, was schon 1981 nicht mehr zeitgewäß war da gab es Heimcomputer mit mehr Schnittstellen

    Vga gab es beim originalen PC noch nicht, das kam erst 1987 mit der PS/2 Serie

  12. Wäre noch anzumerken, das ein PC (wobei ich nicht weis, ob auch der Ur-PC) damals auch einen Basicinterpreter dabei hatte. Ich weis nur nicht, ob der auch im ROM lag, oder ob man den erst von Diskette laden musste. Und wieviel der taugte, weis ich auch nicht, weil ich den ersten Basic-Interpreter bei einem PC in Aktion erst bei XT oder AT-Modellen gesehen habe.

  13. Das Basic war zumindest beim IBM im ROM. Da wurde direkt rein gesprungen wenn kein Diskettenlaufwerk dran war und das ist noch lange so geblieben. Wenn man spätere Rechner ohne Festplatten oder Floppy Controller betrieben hat meldete das BIOS „NO ROM BASIC“.

  14. Ja das war bei der ersten Generation so weil der BASIC Interpreter damals noch zur Standardausrüstung gehörte. Was verbaut war, war allerdings ein „Kassetten-BASIC“ – es konnte nur auf den ebenfalls eingebauten Kasssettenrekorderanschluss rausschreiben und lesen. Wer ein Diskettenlaufwerk hatte musste BASIC nochmals kaufen, weil das ROM BASIC nicht von MS-DOS aus aufrufbar war. Dafür konnte das Disketten BASIC dann auch die Disketten als Speichermedium nutzen. Ist so ähnlich wie beim C64 – auch da musste man nochmals BASIC kaufen um die Sound- und Grafikfähigkeiten nutzen zu können-

  15. Ja gut Kasettenbasic kannte auch Peek und Poke, damit kann man dann auch ein Maschinenprogramm schreiben, das Sektoren von der diskette einliest. Mit der Begründung kann man eigentlich ALLE BASIC Befehle die es gibt durch PEEK,POKE und CALL ersetzen…. Das scheinen auch die C64 Fans nicht kapiert zu haben. Eine Schnittstelle zur Maschinensprache ist kein Ersatz für Befehle in der Programmiersprache in der man arbeitet sondern eine Ergänzung derer.

  16. Das die Schnittstelle zur Maschienensprache nur einer Erweiterung der Programmiersprache ist, ist mir schon klar! Und ich wollte mit dem letzten Kommentar auch nur sagen, das es prinzipiell machbar war, die Sound- und Grafikmöglichkeiten des C64 mit Peek und Poke zu nutzen. Das heisst aber nicht, das es auch oft gemacht wurde, – eben weil es zu lange dauerte. Deshalb wurde es in der Praxis auch so gehandhabt, dass man zeitkritische Programmteile gleich in Assembler geschrieben hat, sofern man es konnte. Ansonsten nutze man halt Basicerweiterungen. Die konnten übrigens auch von einem Datenträger nachgeladen werden, brauchten also nicht unbedingt auf einem Steckmodul zu sitzen.

  17. Ich hab mal eine Frage an die Experten.
    Ich versuche eine Ausarbeitung über die Entwicklung von Fertigungsstrukturen (Größenverhältnissen) von Microprozessoren zu erstellen. Also zum Beispiel:

    – Intel 4004 – 10 Mikrometer
    – Intel 80386 – 1 Mikrometer
    – Pentium 4 – 0,18 Mikrometer
    – Intel Core i Sandy Bridge – 0,032 Mikrometer

    Für Intel und AMD gibts da schöne Beiträge auf Wikipedia. Für andere bedeutende Microprozessoren habe ich bislang nichts finden können. Besonders interessieren mich zum Beispiel der:

    – MOS Technology 6510 (C64)
    – Motorola 68000 (Atari ST, Amiga)

    Kann jemand helfen?

  18. „Das wäre gewesen wenn wohl IBM einen vernünftigen PC gebaut hätte? Einen mit MC68000 Prozessor, vernünftiger Grafik, einem von Unix abstammenden Betriebssystem“ – Dann hätte der PC „Amiga“ geheissen.

    Heute noch unglaublich, wie sehr der Amiga seiner Zeit vorraus war. 1987 erschienen mit GUI, dedieziertem Grafik- und Soundchip und vollständig preemtivem Multitasking (hat Apple erst im Jahr 2000 auf den Markt gebracht, von Apple/UX, welches sich nicht durchgesetzt hat und NeXTStep, welches nicht von Apple war mal abgesehen).
    Ende der Achtziger war damit bereits professionelle Videobearbeitung, Raytracing und Sound sampling möglich und die Grafik hat alles bis dato auf dem PC Mögliche locker in die Tasche gesteckt. Das war schon eine echte Workstation, minus vielleicht Multi user und Ethernet. Es gab sogar PC-Karten, die man z. B. mit einem 8088 oder 8086 bestücken konnte, um MS-DOS laufen zu lassen (warum auch immer man das gewollt hätte).
    Und Commodore hat das Ding dann in den Spielzeugabteilungen verkauft. PCs haben sich für Heimanwender m. M. n. hauptsächlich durch VGA durchgesetzt. Und durch Commodore’s unterirdisches Marketing, welches dazu führte, dass der Amiga als elaborierte Spielkonsole verlächelt wurde. Es ist halt wie so oft in der Marktwirtschaft — nicht Innovation setzt sich durch, sondern der bessere Scam. Fortschritt wird zugunsten von Shareholder value geopfert und krude business Lösungen als das Nonplusultra für alles angepriesen… Und dann ist auf einmal Microsoft Marktführer, mit geklautem Code und bugverseuchten Implementationen, technisch mind. 10 Jahre hinterher…
    PCs fingen für mich frühstens ab NT4 an interessant zu werden. Bis dahin hab ich den armen DosPC-Nutzern nur kopfschüttelnd beim IRQs vergeben und autoexec files editieren zugeschaut. Die ersten Windowsversionen waren ja dann auch mehr so, als würde man einen Kuhfladen mit Sahne und Geburtstagskerzen verzieren.

Schreibe einen Kommentar zu Nils Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.