35 Jahre PC – Verkleinern, Leistungssteigerung und Preisverfall

Auf mein heutiges Thema kam ich durch einen Test in der ct‘ für M.2 SSD. Für alle, die wie ich einen einige Jahre alten Rechner haben: SSD sind inzwischen so klein, dass es neben dem alten Standard SATA, den auch Festplatten haben, einen neuen gibt. M-2 SATA sind kleine Platinchen, 22 m hoch, 42 bis 80 mm lang, vergleichbar den DIMM von RAM-Riegeln. Neuere Rechner haben so einen Steckplatz und es ist auch folgerichtig, denn SATA wurde als Schnittstelle nur genutzt, damit man SSD in alte Rechner einbauen konnte. Praktisch keine SSD benötigte auch nur den Platz, den ein 2,5 Zoll Laufwerksgehäuse bot. Dabei benötigte man für den Einbau dieser Größe in einen Desktop noch Winkel, weil hier der Laufwerksschacht für 3,5 Zoll ausgelegt war. Trotzdem gibt es die M.2-SSD in Kapazitäten bis 8 Terabyte zu kaufen – fast so viel wie die größten Desktop Festplatten. Kein Wunder. Passen doch schon auf eine Mikro-SD Karte, einige Quadratmillimeter groß, bis zu 512 GByte und für 8 Terabyte braucht man dann nur 16 dieser kleinen Plättchen.

Ich habe bewusst die PC-Geschichte ab etwa 1982 mitbekommen und denke, ich bin durch meine Beschäftigung mit der PC Geschichte für mein Buch Computergeschichte(n) auch fähig etwas über die Jahre davor zu sagen.

Auf den ersten Blick hat sich in den letzten 35 Jahren (ich habe Januar 1986 gewählt, weil ich da für aktuelle Leistung und Kosten in der ct‘ 1/1986 nachsehen kann) gar nicht mal so viel verändert zu haben. Der PC ist immer noch eine Kiste, es gibt noch den Monitor und die Maus. Gut der Monitor ist nun flach, aber das gab es damals auch schon bei den Laptops. Selbst Dinge, die es damals nicht gab, waren zumindest von woanders bekannt so, CCD-Chips um Bilder aufzunehmen – die setzte die Galileosonde ein, die eigentlich 1986 starten sollte. Selbst die grafische Benutzeroberfläche gab es schon. Wenn man einen Computernutzer von 1986 per Zeitmaschine nach heute holen würde, er käme wohl mit einem PC zurecht, umgekehrt wohl eher nicht, zumindest wenn er unter DOS oder CP/M arbeiten sollte. Hätte man mich damals gefragt, wie man in 35 Jahren arbeitet, so hätte ich wohl darauf getippt, dass man Informationen gleich auf die Augen projiziert bekommt, den Rechner umgangssprachlich bedient. In der Tat gibt es das alles. Spracherkennung habe ich auch selbst ausprobiert – vor zwanzig Jahren. Mich hat es gestört, dass ich nun immer das Gefühl hatte, der Rechner wartet auf mich, ich fühlte mich bedrängt und konnte meine Artikel nicht so flüssig diktieren, wie ich sie schrieb. Also für mich wars nichts, aber wer schon vorher diktiert hat und das gewöhnt ist, für den ist es sicher eine Erleichterung und auch die Projektion auf das Auge gab s schon mal als Google Glas – hmmm habe davon aber schon lange nichts mehr gehört.

Schaut man sich den PC von damals aber genauer an, so gibt es schon deutliche Unterschiede. Floppy Disklaufwerke waren damals der Standarddatenträger, Festplatten noch die Ausnahme. Die gibt es schon lange nicht mehr im PC, auch nicht CD-ROM als Nachfolger – die gab es 1986 zwar schon, aber nur als Audiomedium und die ein Jahrzehnt später erschienenen DVD-Brenner sind am Aussterben, dabei haben diese die 5000-fache Kapazität eines damaligen Floppylaufwerks …

Am meisten Unterschiede gibt es im Rechnerinneren. Ein IBM kompatibler PC hatte etliche Karten. Denn auf dem Mainboard gab es praktisch keine Schnittstellen – Homecomputer hatten dagegen viel mehr Schnittstellen. Für die Maus benötigte man eine serielle Schnittstelle, für den Drucker eine parallele. Erforderte zusammen eine Karte. Die Floppy brauchte einen Controller – noch eine Karte, der Festplattenkontroller war eine weitere. Wenn der Speicher nicht reichte, kam noch eine Speichererweiterungskarte hinzu und Grafik gab es nur mit einer Grafikkarte. Ein normaler PC hatte also drei bis fünf Karten. Inzwischen ist alles im Chipsatz oder Prozessor integriert, meist auch die Grafik.

Bei den Anschlüssen fällt auf, das diese damals große Stecker hatten, im Vergleich dazu aber schlechte Datenraten. Die serielle Schnittstelle lies bis 230 kbit zu, aber die Datenrate schaffte damals kein SIO-Chip. Meist war bei 1200 bis 2400 Bit/s Schluss. Die parallele Schnittstelle hatte 40 Pins, obwohl es nur acht Datenleitungen gab. Sie war übrigens bidirektional, was man nutzen konnte, um Daten von einem PC zum anderen zu übertragen – Netzwerke waren ja noch nicht verbreitet. Da flossen die Daten so mit 10 bis 20 KByte/s rüber. Heute überträgt USB mit den 3.1 Protokoll 1,2 GByte/s, USB 3.2 das noch nicht als Stecker aufgetaucht ist, aber schon genormt, wird 5 GByte/s übertragen, also schon im Minimum 100.000 mal mehr. Dabei ist der Stecker dafür echt winzig, verglichen mit dem für die Parallele Schnittstelle nach dem Centronics Standard. Das gilt aber auch woanders. Ein SATA-Kabel ist erheblich dünner als die früher üblichen IDE-Kabel und überträgt trotzdem mehr Daten. Eigentlich sollte man meinen, hat sich an Kabeln, vereinfacht gesagt, Kupferdrähte nicht viel verändert. Das Grundprinzip der Leitung sollte unverändert sein. Natürlich wird man im elektronischen Bereich immer mehr Daten über eine Leitung transferieren können.

Es ist natürlich das es überall durch die Leistungssteigerung Mehrleistung gibt. Mal ganz viel, wenn man an Arbeitsspeicher, CPU-Geschwindigkeit oder Massenspeicher denkt, manchmal weniger, z.B. bei der Druckgeschwindigkeit oder Pixels auf dem Monitor. Aber: Nicht alles ist billiger geworden und nicht alles kleiner. Hinsichtlich billiger ist der absolute Gewinner in meinen Augen die Festplatte. Festplatten gab es schon vor dem PC. Der Vorfahr aller heutigen Festplatten war das Winchester-Laufwerk von IBM das 1973 herauskam. Vorher waren Platten und Leseköpfe getrennt, man konnte den Plattenstapel auswechseln. Im Winchester-Drive waren beide eine Einheit und in einem hermetisch verschlossenen Gehäuse untergebracht. So konnte man die Schreib-/Leseköpfe näher an die Plattenoberfläche bringen, mehr Daten auf einer Fläche speichern und die Schreib-/Leserate stieg an.

Urahn der heutigen Festplatten als Massenprodukt waren die ersten Festplatten im 5,25 Format, die um 1980 erschienen mit Kapazitäten von anfangs 5 MB. 1986 war das 5,25 Format immer noch marktbeherrschend, auch wenn die ersten Platten im 3,5 Zoll Format schon erschienen waren. Der Aufpreis für eine Festplatte bei einem PC lag damals im Mittel bei 2.500 DM, was bei einem preiswerten PC schon fast dessen Preis ohne Festplatte entsprach. Ein 20 MB Laufwerk alleine kostete ab 1.900 DM, der nötige Kontroller ab 600 DM. Bei mehr Kapazität wurde es schnell teurer, 40 MB kosteten 2.100 DM mehr als 20 und 87 MB etwa 7.000 DM mehr als 27. Das größte verfügbare Laufwerk, damals gerade frisch vorgestellt, fasste 380 MByte. War die Festplatte damals so teuer wie ein billiger PC, so kostet sie heute nur noch einen Bruchteil. Bei einem Billig-PC kann sie noch die teuerste Einzelkomponente sein, aber meist ist sie das dort auch nicht, sondern das Mainboard. Bei einem mittelteuren PC macht sie typisch nur einen Bruchteil der PC-Kosten aus. Festplatten teilen mit Speicher und Prozessor, dass sie rapide an Kapazität zulegten, die Wachstumskurve aber seit etwa 10 Jahren deutlich abgeflacht ist. Noch immer gilt diese Regel aber für SSD aus Flash-Speichern. Wenn man auch externe Speichermedien wie USB Sticks hinzunimmt, dann kann man den Preisverfall gut demonstrieren. Meinen ersten USB Stick kaufte ich mir 2002: 128 MByte für 42 Euro. Heute bekommt man dafür 256 GB, also 2.000-mal mehr in 19 Jahren, das entspricht eine Verdopplung alle zwei Jahre. Meine erste SSD kaufte ich 2012: 256 GB für 212 Euro, heute bekäme ich für denselben Preis 2 TB, also achtmal mehr in neun Jahren. Nicht ganz so extrem. Das liegt daran, das der Flash-Speicher nach Qualität selektiert wird und in den USB-Sticks landet die einfachste Qualität, nicht ausgelegt für sehr viele Schreibvorgänge, in SSD die beste. Bei Festplatten hat sich übrigens der damals noch junge 3,5 Zoll Formstandard gehalten, soweit ich weiß, der einzige Standard der heute noch von damals aktiv ist (VGA-Buchse und PS/2 Buchse, auch noch vorhanden wurden erst ein Jahr später eingeführt).

Die massivste Verkleinerung erfuhren sicherlich die vielen Karten, die man damals einbaute und die heute in einem Chip untergebracht sind. Ebenso wurden sie natürlich billiger, denn in einem Mainboard für 60 bis 100 Euro sind heute alle diese Karten integriert. Alleine für Hercules-Grafikkarte, Festplattenkontroller, Diskettenkontroller und parallele Schnittstelle zahlte man damals 1.200 bis 1.300 DM.

Doch nicht alles wurde kleiner und billiger. Ein 8086-Prozessor kostete damals 87 DM. Das war nicht der langsamste Prozessor, denn Rechner mit dem Z80 (unter 5 DM) und 6502 waren noch weit verbreitet und der 8088 auch. Es gab aber schon den 80286 als Nachfolger. Ich würde den 8086 damals als Mittelklasse einordnen. Das wäre heute in etwa die iCore i5 Reihe. Prozessoren dieser Reihe liegen heute bei 120 bis 200 Euro. Das heißt, der Prozessor ist nicht nur absolut teurer als damals, er ist auch im Verhältnis zum PC sehr teuer. Für einen Mittelklasse PC gab man damals so um die 4.000 DM aus. Heute mit Monitor um die 700 Euro. Der Prozessor kostet heute in etwa ein Viertel bis Fünftel des gesamten PC, damals ein Fünfzigstel. Und er ist nicht kleiner geworden. Schon der Prozessor ist wegen der vielen Pins, die er braucht, größer, auch wenn das Die im Inneren in etwa gleich groß ist. Aber er benötigt einen Kühlkörper, der um ein vielfaches größer als der Prozessor ist.

Sehr interessant verlief die Entwicklung der Softwarepreise. Software war damals wirklich teuer. Mehrere Hundert D-Mark für etwas was man heute als Utility bezeichnen würde, waren normal. Für das, was man heute als Office bezeichnet konnte, man locker mehr ausgeben als für den PC selbst. Dabei orientierten sich die Preise offensichtlich nach dem Preis des Rechners: Wordstar war unter CP/M und MS-DOS verfügbar. Kostete unter MS-DOS aber mehr als die CP/M Version und die Version für die CPC-Reihe, die auch CP/M konnte, aber billiger war als die normalen CP/M Rechner kostete nur 199 DM – für die MS-DOS Version musste man das vierfache löhnen.

Freie Software, zuerst als Shareware auf Disketten vertrieben, mit dem Aufkommen des Internets auch über dieses, hat dazu geführt, das man heute fast alles auch als kostenlose Alternative bekommt, wenngleich vielleicht nicht in der gleichen Funktionalität und Benutzerfreundlichkeit wie bei kommerziellen Produkten. Doch auch bei denen sind die Preise stark gesunken. Es gibt aber Ausnahmen. Die Kosten für Betriebssystem erreichten Anfang der Neunziger ein Minimum. 1986 musste man für MS-DOS und Windows zusammen rund 600 DM zahlen, 1993 nur noch 200. Beginnend mit Windows 95 wurde es wieder teurer, heute gibt es keine Windows-Neulizenz für 100 Euro, zumindest keine legale. Ebenso konnten Firmen, die einen Standard gesetzt haben, ihre Preise hochhalten. So Autodesk mit ihren CAD Programmen und Adobe mit den Desktop-Publishing-Programmen. Dazu gehört auch meine favorisierte Programmiersprache Delphi, die damals als Turbo Pascal 219 DM kostete, neu kostet Delphi in der billigten Version heute 1.699 Euro, also das 15-fache. So nutze ich eine ziemlich alte Version, die ich aber noch 2013 als Dozent mit Education Rabatt kaufen konnte.

Entsprechend gibt es Gewinner und Verlierer. 1986 waren die Firmen mit dem höchsten Wert, den meisten Angestellten alles Hardwarehersteller. Zum einen ist deren Zahl ständig zurückgegangen. Es gab damals etwa ein Dutzend Hersteller von Festplatten oder Floppydisklaufwerken, heute sind es noch drei. Ebenso sieht es bei den Grafikkarten aus. Manch einer erinnert sich noch an Namen wie Matrox, ATI, Genoa, Hercules, Paradise. Heute übrig geblieben sind Nvidea und ATI als Bestandteil von AMD. Vor allem aber hat, was den Firmenwert angeht, Softwarefirmen diese weit übertroffen, dehnt man den Begriff aufs Internet aus – das wesentliche ist ja auch die Software, die Google in ihrer Suchmaschine einsetzt, nicht die Rechner, die sie einsetzen, dann sind diese Firmen heute die wertvollsten weltweit.

Diesem Irrtum unterlag auch Steve Jobs. Er leitete die Macintosh Entwicklung und sah als Gegner IBM mit dem IBM PC, also die Hardwareplattform. Dabei war das herausragende des Macintosh nicht die Hardwarebasis auf dem 68000-Prozessor. Es war die grafische Oberfläche. Und sobald es die auch für den IBM PC gab, entfiel dieses Alleinstellungsmerkmal. Mehr noch: er unterschätzte die Bedeutung die Software schon damals hatte. Man gab nicht 5.000 DM (das wären heute mehr als 5.000 Euro) für ein Gerät aus, nur als Selbstzweck, zum Programmieren lernen oder um sich mit Computer vertraut zu machen. Man erwartete dann mit dem PC arbeiten zu können, auch wenn man noch mehr Geld für die Software ausgeben musste. Und da haperte es beim Macintosh. Aber das ist eine andere Geschichte.

3 thoughts on “35 Jahre PC – Verkleinern, Leistungssteigerung und Preisverfall

  1. 1) eine 16TB Festplatte z.B. kostet heute auch 400-650 Euro.
    2) ein weiterer Standard, den es immer noch gibt, ist die serielle Schnittstelle, wenn auch in der 9poligen Version. An Laptops ist sie leider schon ums Jahr 2000 ausgestorben, an Servern ist sie immer noch 9pol. Ich hätte sie ja gerne als CAT5 Buchse nach Cisco Standard.
    3) Der große Anteil von CPU Preis und RAM Preis am Endpreis der meißten Rechner führt dazu, daß im PC Bereich (auch und insbesondere PC Server) CPUs und RAM gesockelt sind.
    Technisch wäre es wegen der hohen Frequenzen interessant beides aufzulöten. Macht man aber nicht, um CPU und RAM so spät wie möglich in einen PC einbauen zu können. (CPUs und RAM kommen per Luftfracht, der Rest des PCs per Seefracht.)

    MfG
    und vielen Dank für Ihre Artikel

    1. 1: Ich verwende immer die „normale“ Konfiguration, also das was heute oder damals Durchschnitt ist. Wie ich mit der 87 und 380 MB Festplatte angedeutet habe, gibt es immer viel Spielraum nach oben. Man kann auch heute 7.200 Euro für einen Prozessor ausgeben: https://amzn.to/2L1yXG6

      2: COM-Schnittstellen gibt es nur noch bei Servern, wegen dem Fernzugriff, beim PC habe ich sie schon 2009 nicht mehr gesehen und ich beschäftige mich ja mit dem PC und nicht Servern.

      3: Sockel sind Standard und waren es schon damals.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.