Home Computer Computer Geschichte Site Map counter

20 Jahre PC - Ist es nun einfacher geworden?

Einleitung

In einem Editional zu dem 20.sten Geburtstag des IBM PC in der ct' vertrat Detlef Grell die Meinung, heute wäre doch alles viel besser, und wer dies leugnet hat nie mit einem PC vor Windows gearbeitet. Doch ist dem wirklich so? Dem wollen wir doch mal auf den Grund gehen. Dieser Artikel entstand im Juli 2002.

Was kann sich bei dem PC geändert haben? Nun zuerst sollte man Dinge vergleichen die vergleichbar sind. Natürlich ist heute ein PC multimedial, das leistete ein IBM PC nicht. Auch das Internet ist so jung, das man für Windows 3.1 erst noch einen TCP/IP-Stack nachinstallieren musste. Was kann sich in 20 Jahren PC geändert haben? Nun meiner Meinung nach 3 Dinge: Bedienungsfreundlichkeit, Zeitbedarf für die Arbeit und Leistungsfähigkeit.

Bedienungsfreundlichkeit - oder "Alles so schön bunt hier..."

IBM PC Ja wie waren das noch für vorsintflutliche Zeiten als man Befehle eintippen musste. Als alle Anwendungen Textorientiert waren und es seltsame Steuersequenzen gab. Heute geht alles flott von der Hand, sprich Maus. Doch das ist nur die halbe Wahrheit. Natürlich hat Windows uns einiges positive gebracht. Neben grafischen Icons ist es sicher das System der immer gleichen Anwendungen. (Das Dateimenü ist immer das erste, kopieren tut man immer mit STRG-C oder STRG-Einf). Doch bedienungsfreundlich ist etwas anderes. Vielmehr sind heute Anwendungen so aufgebläht mit Features, versteckten Menüpunkten, das es inzwischen tanzende Büroklammern gibt die einen auf die Möglichkeiten hinweisen. Ist das bedienungsfreundlich?

Wie war doch Textverarbeitung früher primitiv. Da gab es beim Klassiker WordStar etwa 20 Tastenkombinationen zu lernen. Doch damit schlägt ein damit gewöhnter Benutzer jeden Maushetzer beim Eingeben. Diese wenigen Befehle sind kryptisch, unlogisch (STRG-QF zum Suchen....) Aber sie sind lernbar und schneller einzutippen. Wer sie kann, kommt damit heute noch weiter - in vielen Editoren zuschaltbar oder auch in Borland Entwicklungsprodukten. Dagegen kenne ich Anwender die nicht mehr Drucken konnten, nachdem die Kinder um mehr Platz zu haben die Symbolleiste mit dem Druckersymbol ausgeblendet hatten. Wer wirklich alle Menüpunkte seines Word beherrscht, alle Feldbefehle und in VBA programmieren kann, der muss enorm viel Zeit in dieses Programm hineingesteckt haben.

Dazu kommt das der Anwender damals - vor dem Internet - nur mit einer Handvoll Anwendungen arbeiteten - Eine Datenbank, Textverarbeitung, Tabellenkalkulation, die Norton Utilities und der Commander. Das war's Wenige Anwendungen - wenige Befehle. Eine Schande ist das bestimmte Anwendungen wie der Norton Commander immer noch von der Bedienung her dem Windows Explorer weit überlegen sind, der uns zwingt ihn zweimal zu öffnen und dann von Hand die Dateien hin und her zu schieben und hoffentlich mit rechter Maustaste über dem richtigen Verzeichnis, sonst gibt es nur eine Verknüpfung....

Hinzu kommt, das die grafische Benutzeroberfläche älter als der IBM PC ist. Sie wurde schon Mitte der siebziger Jahre im Xerox Park erfunden. Windows ist daher nichts wirklich neues, es ist vielmehr eine Perfektionierung einer schon bald 30 alten Technologie. (Der erste Computer mit grafischer Benutzeroberfläche, der Xerox Alto wurde 1973 entwickelt...)

Probleme und ihre Lösung

Was passiert wenn etwas nicht funktioniert? Heute stehen Sie vor einem Blue-Screen und schauen in die Röhre. Früher gab es auch Probleme. Meistens weniger wegen Differenzen zwischen Programmen, da jedes für sich alleine so installiert war, als wäre es alleine auf dem Rechner. Aber man musste den korrektem Drucker in jedem Programm angeben und wenn man einen Exoten hatte Steuersequenzen eintippen. Nein wie umständlich. Ja sicher, aber das sind einige Zeichen die man aus den damals noch vorhandenen Druckerhandbüchern übernehmen konnte und das war's dann auch. Heute können sie sich ganze Bücherregale mit Tipps und Problemlösungen zu Windows füllen. Damit es nicht zu langweilig wird gibt es alle 6-12 Monate neue Hardwarestandards und die Treibermodelle werden gewechselt. So wollte ich das Windows ME, das meinem Rechner beilag durch mein altes Windows 98 ersetzen und siehe da - Der Rechner ist elend langsam. In der Systemsteuerung steht auch außer Computer kein einziges Gerät eingetragen und der Hardware Assistent findet nicht mal eine Grafikkarte oder ein CD-ROM. Pech gehabt, wer betreibt auch einen Rechner mit einem 2 Jahre alten Betriebssystem.... Umgekehrt laufen Spiele von 1995-1998 auf der Basis von Direct X 5 nicht auf der Direct X 7 Version.

Was kann man heute überhaupt bei Problemen machen? Früher gab es kurze Fehlermeldungen, deren Bedeutung man im Handbuch nachschlagen konnte, aber eigentlich waren es sehr wenige und bald wusste man woran es lag. Heute gibt es nur noch "Allgemeine Schutzverletzungen" und "Ausnahmefehler". Woran es liegt das kann nicht mal ein Fachmann klären. Genauso aufgeschmissen ist man wenn zwei Hardwareteile nicht zusammenspielen wollen.

Früher waren PCs beständiger und zuverlässiger. Die 8086 Generation verkaufte sich über sechs Jahre lang gut und die 80286 Generation über weitere 6. Versuchen Sie mal heute einen Pentium Rechner (ebenfalls 6 Jahre alt) neu zu erwerben. Ich kann in dieser immer schnelleren Spirale keinen Vorteil für den Kunden erkennen. Manchmal wünscht man sich die alten Heimcomputer wie den C64, Amiga, ST oder Amstrad CPC zurück - Da wurden Programme über die Jahre besser ohne das sich die Hardware änderte. Es gab keine Probleme mit Treibern, Inkompatibilitäten und wechselnden Hardware Standards.

Zeit gespart...

Was uns Microsoft und Konsorten beibringen wollen ist das man heute Zeit spart. In der Tat sieht vieles oberflächlich schneller aus. Doch ist dem wirklich so? Ich denke man muss hier zwei Dinge bedenken. Erstens wie lange braucht jemand für die tägliche Arbeit? Hier ist es nun mal eine Tatsache, das man schneller eine (auch noch so kryptische) Tastenkombination eintippen kann als wenn man mit der Hand auf die Maus geht und dann etwas anklickt. Der Autor konfiguriert nicht umsonst alle Programme so, das dieselbe Tastenkombination die er intuitiv kann, immer dasselbe erledigt und kommt völlig aus dem Tritt wenn das bei einem Programm nicht klappt weil man es nicht anpassen kann (vorwiegend MS Produkte).

Das zweite ist das Neueinlernen in vermeintliche Features die man doch nicht benötigt. Das kostet Zeit, ebenso wie das Neuaufspielen bei der halbjährlichen Windows Neuinstallation und Neueinrichten der persönlichen Einstellungen. Dies alles war früher nicht nötig, weil man nichts neu installieren musste. Ein System war unter DOS so konzipiert das nur eine Anwendung zur selben Zeit lief und sie ihre eigenen Daten in ihren Verzeichnissen hatte. Es gab keine gegenseitige Beeinflussung und wenn man etwas neu installieren musste, dann nur weil man aus versehen was gelöscht hatte (Doch es gab wenigstens noch den Undelete Befehl!).

Die Hausaufgaben von Microsoft

Es ist natürlich nicht MS alleine die fehlerhafte Programme produziert, aber wer mit denselben Programmen unter Windows NT arbeitet stellt bald fest das MS nicht ganz unschuldig an den "allgemeinen Schutzverletzungen sind". Es ist eigentlich ganz einfach: MS muss nur mal wirklich ein stabiles Betriebssystem hinbekommen. Das bedeutet z.B. folgendes:

  1. DLL abschaffen: Sie sind zum einen die Hauptursache für Probleme, weil ein Programm alte durch neue ersetzt und alte Programme dann nicht mehr laufen, zum anderen könnte man Programme auch nach einer Windows Neuinstallation weiterbenutzen wenn diese die DLLs nur im eigenen Verzeichnis unterbringen. Manche machen dies und der Autor kann aus eigener Erfahrung sagen: Diese sind recht stabil. Der Plattenplatz ist heute da, so das das Einsparen von Speicher nicht mehr als Argument dienen kann. Das ursprüngliche Konzept von DLLs war ja, das man gemeinsame Programmteile nur einmal benutzt. Microsoft selbst hat dieses Konzept aber zur Makulatur werden lassen indem sie mit ihren Produkten System DLLs durch neue ersetzen die nicht vollständig kompatibel zur alten sind. Andere Programme die so dumm sind sich darauf zu stützen laufen dann nicht mehr.
  2. Konsequentes sicheres Betriebssystem mit Ausnützung aller Vorteile des 32 Bit Modus ohne alte 16 Bit Altlasten die es unsicher machen: Es gibt dies schon bei Windows NT/2000, allerdings eben ohne Unterstützung für viele hardwarenahe Dinge wie Spiele. Es ist zugegebenermaßen ein Problem: Will man hohe Performance so muss man direkte Hardwarezugriffe erlauben, die aber jeden Schutz aushebeln. Meiner Meinung nach wäre es am sinnvollsten wenn Microsoft eine 3 Boot Lösung präsentieren würde:

Bei schnellen Boot Zeiten könnte ich damit wirklich gut leben, denn meine wirklich wichtigen Daten sind mir zu bedeutend, als das ich daneben spielen wollte. Und ob ich einen Spielstand ins Nirwana schicke oder eine halbe Diplomarbeit ist sicher ein Unterschied.

Doch der Trend läuft seit Windows 95 anders. Es ist fast wie in der Modebranche: Dasselbe in neuen Farbtönen und neuem Design. Es gibt kein neues Windows sondern nur optische Verbesserungen. Sicher entwickelt sich alles langsam weiter zum echten 32 Bit System, doch dann eben auch unter Verlust der Komptabilität zu alten Programmen. Und - sie ahnen es sicher schon - ich habe noch jede Menge dieser Programme am Laufen die ich aus dem eff-eff bedienen kann.

Windows XP ist nicht die Lösung die man sich wünscht. Es ist zwar ein sicheres System, aber auf Kosten der Komptabilität. Vieles was unter Windows 9x lief läuft nicht mehr und auch vieles was DOS oder Windows 3.11 voraussetzt. Bei mir laufen z.B. Scanner nicht mehr und auch Brennprogramme (Nero 4 und Easy CD Creator 4). Nun ist das Microsoft egal. Soll der Benutzer doch einfach neue Programme kaufen. Die neuen sind doch sowieso besser. Doch das ist genauso ein Fehlschluss wie die Meinung, das wenn man alle 3 Jahre einen neuen PC kauft, das man dann schneller arbeiten könnte. Wenn ich einige Briefe im Jahr schreibe oder an meinen Adressdaten Listen ausdrucke, dann nehme ich alte DOS / Windows 3.11 Programme. Weil der Lernaufwand in neue Anwendungen in keinem Verhältnis zum Nutzen steht.

20 Jahre PC - ein technischer Vergleich

Als ich mir 1982 meinen ersten Computer kaufte nahm ich eine Preisliste mit, die ich mir bis heute aufgehoben habe. Es ist interessant wie sich seitdem die Technik entwickelt hat. Natürlich hat man das Problem des Vergleiches: Es gab 1982 keine CD-Laufwerke, DVDs, Festplatten waren unbezahlbar und Drucker waren Nadeldrucker. Trotzdem habe ich mal eine typische Apple Konfiguration mit einem 20 Jahre jüngeren PC vergleichen. Dabei habe ich damit man nicht zu viele Äpfel mit Birnen vergleicht die Festplatte außen vor gelassen und die Speicherkapazität von CD-ROMs mit Diskettenlaufwerken vergleichen. Schließlich sind dies heute die Wechseldatenträger. Der Drucker war beim Apple ein MX-80 Matrixdrucker und beim heutigen PC ein Farbtintendrucker von HP.

Apple II mit 2 Disklaufwerken
Kennzeichen Apple 2 typischer PC Mitte 2002 Steigerung in % Zuwachs pro Jahr
Prozessor [Bits] 8 32 400 7.2%
Prozessor [MHz] 1,023 1.800 176.000 % 45.3 %
RAM [KB] 48 256.000 533.300 % 53.5 %
Disks Kapazität [KByte] 143 40.000.000 279.000 % 68,6 %
Disks Datenübertragungsrate [KByte/sec] 31.25 30.000 96.000 33,1 %
Farbgrafik Farben [Bits] 6 32 533 % 8.7 %
Farbgrafik [Punkte] 54.000 1.310.000 2.427 % 17.2 %
Monitor Diagonale 12 19 58.3 % 2.3 %
Drucker Seiten [1/min] 0.5 4 800 % 10.9 %
Drucker Auflösung [Punkte pro dpi] 72 1.200 1.667 % 15.1 %
Gesamtpreis [DM] 6.250 3.000 - 52 % - 3.2 %

Man sieht recht deutlich enorme Steigerungen in elektronischen Teilen des Computers (Speicher, Geschwindigkeit). Die Steigerungen nehmen bei der Kombination von Elektronik und Mechanik ab (Datenübertragungsrate bei Disks). Wo Mechanik wichtig für die Funktion ist, ist der Zuwachs gering (Druckerauflösung, Geschwindigkeit, Monitorauflösung). Auch dies zeigt die Erfahrung: Sehr oft lebt ein Monitor länger als eine PC Generation.

Appendix 2014

2014 wird es nach 12 Jahren Zeit nochmals Bilanz zu ziehen. Inzwischen hat sich die Entwicklung deutlich abgeflacht:

Kennzeichen typischer PC Mitte 2002 typischer PC Mitte 2014 Steigerung in % Zuwachs pro Jahr
Prozessor [Bits] 32 64 100 5,9%
Prozessor [MHz] 1.800 3.400 89% 5,4%
RAM [MB] 256 8.192 3200% 33%
Disks Kapazität [GByte] 40 2000 5000% 38%
Disks Datenübertragungsrate [MByte/sec] 30 150 500% 30 %
Farbgrafik Farben [Bits] 32 32 0% 14%
Farbgrafik [Punkte] 1.310.000 2.073.600 58% 3,3%
Monitor Diagonale 19 24 26% 1,9%
Drucker Seiten [1/min] 4 10 250% 7,9%
Drucker Auflösung [Punkte pro dpi] 1.200 1.800 50% 3,4%
Gesamtpreis [Euro] 1.500 900 -60% -4,1%

Die geringe Zunahme in der Leistung hat natürlich auch Folgen: Während 2002 ein PC meist nach 3 Jahren ersetzt wurde weil das neue Modell um ein vielfaches schneller und besser ausgestattet war, steigt seitdem die Nutzungsdauer ständig an. Bei der Taktfrequenz gab es von 2003 bis 2014 nur einen langsamen Anstieg von 3,8 auf 4 GHz maximal, die meisten Prozessoren sind heute eher etwas niedriger getaktet als die vorherige Generation. Dafür (und nicht in der Tabelle unterzubringen) setzt man immer mehr Kerne parallel ein. Bei den Festplatten wurden 2010 2 Terabyte erreicht und 1-2 Terabyte sind seitdem auch die Standardgröße, mehr Speicherplatz bekommt man seitdem nur noch durch mehr Platten im Gehäuse was diese sehr teuer macht. Stattdessen scheinen Solid-State Disks die Festplatten abzulösen.

Das die Parameter nicht alle gleich schnell steigen, hat aber auch Folgen. Bedingte durch die Mechanik beim Antrieb steigen die Transferraten von Festplatten viel langsamer als deren Kapazität. Mein erstes Laufwerk war 1987 eine 30 MByte Platte mit einer transferrate von 250 Kbyte/s. Theoretisch hätte man sie also in 120 s auslesen können, (nur konnte man sich damals keine zweite Festplatte als Backup leisten und auch der Platz fehlte im Gehäuse, da sie noch 5,25 Zoll Formfaktor in voller höhe hatten). 2014 haben die Platten eine Kapazität von 2 TByte, bei rund 150 MByte/s Dauertransferrate. Das Auslesen dauert nun also fast 4 Stunden.

Artikel verfasst 1m 14.7.2002

Artikel zuletzt geändert am 2.7.2014

Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.


© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Neues Hier werben Bücher vom Autor Buchempfehlungen Top 99