Warum hat sich die grafische Oberfläche so langsam durchgesetzt?

 5,503 total views,  173 views today

Diese Frage drängt sich ,mir auf, als ich den neuesten Artikel über den Macintosh gestern fertigstellte. Ich bin dabei auch über ein Streitgespräch in einer Computerzeitschrift von damals gestoßen, in der diskutiert wurde ob denn die textbasierte oder grafische Oberfläche die bessere ist.

Experten machen sich es einfach und verweisen auf den Begriff der „Killerapplikation“. Darunter versteht man – stark vereinfacht – eine Anwendung, die so nützlich ist, das sie den Kauf eines PC rechtfertigt. Die erste Killerapplikation war Visicalc und da sie anfangs nur auf dem Apple II lief, verhalf sie dem Apple zum kommerziellen Erfolg. Ebenso wird der Erfolg des IBM PC gerne mit dem Erscheinen von Lotus 1-2-3 verknüpft, ebenfalls einer Tabellenkalkulation, die nur auf dem IBM PC, aber nicht MS-DOS Kompatiblen lief und sehr schnell war, da in Assembler programmiert.

Das stimmt auch, aber ich will es ausführen. Versetzen wir uns in die Mitte der achtziger Jahre zurück, der Macintosh ist erschienen. Eingeführt seit einigen Jahren sind die MS-DOS Rechner, vor allem der IBM PC und die Kompatiblen. Im Herbst 1984 erschien das Nachfolgemodell IBM PC AT das, aber auch unter DOS lief.

Damals waren Computer noch um einiges teurer als heute. Wer 1984 einen IBM PC Kompatiblen kaufte, musste rund 5000 DM für eine arbeitsfähige Konfiguration mit zwei Diskettenlaufwerken und Monochrommonitor auf den Tisch legen. Der Macintosh kostete bei Einführung rund 7.500 DM, aber ohne zweites Laufwerk war er zu nichts nütze, das hob den Preis dann auf fast 9.000 DM an. Noch teurer war IBM PC AT, der je nach Konfiguration 15.000 bis 20.000 DM kostete.

Der PC alleine reicht nicht aus. Man benötigte zumindest eine Anwendung und einen Drucker – damals ein 9 Nadeldrucker oder ein Typenraddrucker, man konnte bestimmte Schreibmaschinen auch als Drucker an den Computer anschließen, so die populäre „Gabriele“ von Triumpf-Adler. Software kostete damals auch noch um die 1.000 Mark für ein Programm und Drucker lagen so bei 1.000 bis 1.500 DM. Da war man schon im günstigsten Fall 7.000 DM los. Das entsprach rund drei Monatsgehältern einer Sekretärin, heute wohl im Gegenwert von 8.000 bis 9.000 Euro.

Eine solche Summe gibt man nicht einfach so aus, das ist eine Investition. Dann rechnet man den Kosten entgegen, was man an Nutzen hat. Der generelle Nutzen ist Zeitersparnis. Ich nehme mal Textverarbeitung als Beispiel. Es geht schneller einen Tippfehler in einem Programm zu korrigieren als mit Tipp-Ex, ein Brief ist schneller nochmals ausgedruckt, als ihn aus einem Ordner zu holen, zu kopieren und wieder den Ordner zurückzustellen. Vor allem aber spart man Zeit, wenn man es mit Schreiben zu tun hat die im Wesentlichen immer gleiche Textpassagen haben. Das ist z.B. bei Versicherungen so, die Erstmeldungen mit Schreiben mit Standardbausteinen beantworten. Ein Vorgängersystem des IBM PC, der IBM Displaywriter, war fähig, Texte aus mehreren Bausteinen zusammenzusetzen, die man dann noch um einige individuelle Sätze ergänzen konnte und es war trotz des hohen Preises sehr beliebt, da man so viel Zeit spart. Ebenso kann man so leicht ein und denselben Brief an viele Kunden schicken, aber mit individueller Adresse (Serienbrieffunktion). Man kann diese erwartete Zeitersparnis den Investitionskosten gegenrechnen und erhält dann den Zeitraum, nach dem ein PC sich finanziell lohnt.

Klar ist das mit sinken Preises so immer mehr PC im Laufe der Zeit verkauft wurden, denn so wurde der Zeitraum immer kleiner und die Löhne stiegen ja auch an.

Aber die Kosten für den PC sind eine Sache. Die andere ist zeitlicher Mehraufwand für die Einarbeitung, denn Computer waren damals noch neu. Und hier setzt die Diskussion an. Der zeitliche Mehraufwand hängt vom Programm ab und ist per se nicht von dem Betriebssystem abhängig. Ich nehme nochmals das Beispiel Textverarbeitung. Da gab es Textverarbeitungen die arbeiteten mit kryptischen Steuerkodes und in den Text eingebauten Befehlen zur Formatierung, die man alle erst mal lernen musste, wie z.B. Wordstar. Es gab aber auch schon neuere Programme die benutzerfreundlicher waren. MS Word für DOS war mit der Maus bedienbar. Es gab so keinen Unterschied zu einer Textverarbeitung zu Windows. Ein Menü unten konnte leicht gefunden und ein Befehl selektiert werden, Text mit der Maus markiert werden. Selbst das WYSIWYG (What You See Is What You Get) versuchte Word zu imitieren, indem es zwar nicht das genaue Schriftbild des Druckers auf dem Bildschirm wiedergeben konnte, aber zumindest die Attribute (Fett, Kursiv, Unterstrichen) im Grafikmodus. Prinzipiell hat eine grafische Oberfläche die Möglichkeit einiges einfacher zu machen, das Markieren von Text geht einfacher, das Anspringen von Eingabemasken auch. Doch das liegt nicht an der grafischen Oberfläche, sondern an der Maus und die funktionierte auch unter DOS.

Was blieb war die Einarbeitung in das Betriebssystem selbst. DOS und andere textbasierte Betriebssysteme bestehen zumeist aus einer Sammlung von Befehlen. Bei einer grafischen Oberfläche findet man meistens ein Menü mit den Einstellungen und für häufige Dinge dann auch Programme die dasselbe wie unter DOS machen nur eben grafisch. Die Oberfläche ist mit Sicherheit einfacher zu bedienen, aber ist das für einen Arbeitsplatz relevant? Zurück zum Beispiel. Eine Sekretärin hat wahrscheinlich blß mit ihrem Textverarbeitungsprogramm gearbeitet. Das konnte man sogar beim Booten gleich starten. Was sie von DOS noch wissen musste, war dann wie man Disketten formatiert und kopiert. Das sind zwei Kommandos, die man sich merken kann und wenn nicht dann kann man Programme kaufen, die es einem leichter machen. So die Norton Utilitäres und der Norton Commander. Dann gibt es eigentlich in der Benutzung keinen Unterschied mehr.

Natürlich sieht eine grafische Oberfläche schicker aus. Doch würde man dafür mehrere Tausend DM mehr ausgeben? Die meisten taten es damals nicht.

Der Hauptvorteil der grafischen Oberfläche ist das erwähnte WYSIWYG. Es wurde damals argumentiert, dass man endlich einen Text so auf dem Bildschirm sieht, wie er gedruckt wird. Nun ja nicht ganz. Im geschäftlichen Umfeld waren Typenraddrucker oder eben angeschlossene Schreibmaschinen die Norm, da ihr Schriftbild einwandfrei war. Mehr Flexibilität bot der Nadeldrucker der im Grafikmodus nicht nur beliebige Grafiken ausgaben konnte, sondern eben auch den Text einer WYSIWYG-Anwendung. Nur: das dauerte deutlich länger als die intern gespeicherten Fonts und sah schlechter aus, weil die internen Fonts natürlich auf die Fähigkeiten des Druckers abgestimmt waren. Ein 9 Nadeldrucker hatte eine Auflösung von 72 dpi, das ist grob, da sieht man jeden Nadelanschlag. Ein Laserdrucker der ersten Generation schaffte 300 dpi und das gilt bis heute als Untergrenze für sauberes Schriftbild. Es wurde Ende der Achtziger Jahre besser, als 24 Nadeldrucker mit dreimal kleineren Nadeln dann mit 216 dpi und Fast-Letterqualität auf den Markt kamen, aber auch sie waren im Grafikmodus deutlich langsamer als beim Drucken von Text.

Kurz mit einem 9 Nadeldrucker nützt einem WYSIWYG nicht viel, ich finde, es ist kein Zufall, das Windows den ersten Boom hatte als 24 Nadeldrucker und die ersten Tintenstrahldrucker erschwinglich wurden.

Die Daten, die damals bearbeitet wurden, waren auch Text und Zahlen – die drei großen Anwendungsgruppen waren Textverarbeitung, Tabellenkalkulation und Datenbanken, wobei letztere meist versteckt hinter Eingabemasken waren, aber die Basis für jede Verwaltung von Daten, egal ob Warenwirtschaftssystem, Lohnabrechnung oder Versicherungsverträge. Und selbst in einer grafischen Oberfläche kommt man mit den Tasten schneller durch Texte oder Tabellen, weil man dann nicht die Hand von der Tastatur für die Mausbedienung nehmen muss.

Was die grafische Oberfläche zur Durchsetzung benötigte war ein Alleinstellungsmerkmal, eine Anwendung, die man nur grafisch erledigen konnte. Die kamen dann. Zuerst das Desktop-Publishing, also das Setzen von Büchern, Zeitschriften Flyern am Bildschirm, auch hier gekoppelt an den Laserdrucker als Ausgabegerät, der anfangs noch teurer als der Rechner selbst war. Es folgte, als die Macs dann auch Farbe konnten, die Bildbearbeitung. Die ersten Programme dafür sind auch die, die heute noch als Standard gelten Pagemaker und Photoshop. Weit unterhalb der Preisklasse der Macs etablierten sich der Amiga und Atari ST. Erstaunlicherweise machten sich diese Rechner zwar untereinander Konkurrenz, aber niemals dem Macintosh, obwohl sie in der Leistung mit den Macs vergleichbar waren und auch den gleichen Prozessor einsetzten. Die jeweiligen Vorzüge führten auch hier zu Anwendungen, die es auf dem PC nicht geben konnte. Der Atari ST durch seine Midi-Schnittstelle wurde ein Werkzeug für Musiker – man konnte grafisch die analogen Geräte leicht nachbilden und Notensatz erfordert natürlich eine grafische Darstellung. Der Amiga hatte Spezialbausteine, die sehr schnell Bilder berechneten, und wurde so zur Basis für Videobearbeitung, man konnte so Effekte wie Überblenden berechnen.

Auf dem PC wurde die grafische Oberfläche erst mit Windows 3.x populär. Das verwundert mich persönlich nicht. Ich habe als ich vor etwa einem Jahr meinen Artikel über die Entwicklung von Windows recherchiert habe auch in einer virtuellen Maschine die alten Versionen installiert. Ab Windows 3 habe ich längere Zeit damit abriegeltet, an Windows 2 erinner ich mich nur noch dunkel. Die Versionen vor 3 waren für die Arbeit eigentlich nicht brauchbar. Nicht nur fehlen elementare Dinge der Oberfläche, nein sie teilten sich auch den Speicher mit DOS. Bei Windows 2 waren so noch 380 KByte für ein Programm übrig, wenig selbst für DOS-Anwendungen, geschweige denn Windows Anwendungen und startete man eine DOS-Anwendung, so konnte die Windows mit zum Absturz bringen. Der „virtuelle“ DOS Modus kam erst mit Windows 3, wie auch die Unterstützung von mehr als 1 MB Speicher. Selbst WYSIWYG ging erst da richtig, weil vorher alle Schriften Bitmaps waren, also feste Größen und Attribute hatten und nicht frei vergrößert werden konnten.

Ich habe sechs Jahre unter Windows 3.1 gearbeitet, aber anfangs nur mit der Textverarbeitung – dank Laserdrucker brachte hier WYSIWYG etwas, nachdem ich mir zum 30-sten Geburtstag einen Flachbettscanner kaufte (damals knapp 1.000 DM teuer) auch zum Bearbeiten von Photos. Die meiste Zeit war ich damals aber noch unter DOS unterwegs. Da lief meine Programmierumgebung, Spiele sowieso nur unter DOS und die ganzen Utilitys wie Norton Utilities, DCC oder VGACopy auch.

Der Durchbruch was die Installationen angeht, war so Windows 95 vorbehalten. Dafür gibt es meiner Ansicht nach zwei Gründe. Der erste ist der das die Oberfläche deutlich verbessert wurde und (Zufall oder nicht) erstmals so ähnlich wie bei einem Xerox Alto aussah. Den zweiten sehe ich im Internet. Man kann ins Internet mit einem Textbrowser, aber es macht keinen Spaß. HTML in der die Webseiten entstehen, ist ja auch eine Seitenbeschreibungssprache mit Formatanweisungen und zudem kann man Grafiken einbinden. Fast zeitgleich zum Erscheinen von Windows 95 setzte in den USA der Internetboom ein, etwas später dann auch bei uns.

Für Apple, Atari und Commodore war das verheerend. Sie verloren ihr Alleinstellungsmerkmal. Noch problematischer – bei den PC war durch die Konkurrenz von vielen Firmen und höhere Stückzahlen von Prozessoren und Chipsätzen, der Preis so gefallen, das sie auch noch günstiger waren, günstiger als Macs waren sie schon immer, nun aber auch günstiger als Amigas und Ataris, zumindest wenn man die Rechenleistung mit berücksichtigt. Für alle drei Firmen war auch schlecht, das Motorola ihre 68K Architektur nicht mehr in der Leistung steigern konnte und eine neue Prozessorgeneration, die PowerPC entwickelte. Neue Computer konnte aber nur Apple entwickeln, Commodore und Atari hatten nicht die Mittel dafür und beide Firmen gingen kurz hintereinander in den Konkurs.

2 thoughts on “Warum hat sich die grafische Oberfläche so langsam durchgesetzt?

  1. Ein Aspekt geht in dem Artikel völlig unter: die Leistungsfähigkeit der Hardware. Ich erinnere mich noch an die Zeit Mitte der 1980er bis Ende Mitte der 1990er. Eine Workstation mit 286er später 386er und 486er konnte 30 Terminals (Text basiert) gut versorgen. (Unix, Informix, Bürosoftware und C-Programme) . Erst die stark gesunkenen Hardwarepreise und gleichzeitig gestiegene Hardwareleistung hat Einzelplatz-PCs und Grafik ermöglicht bzw. stark unterstützt.

    1. Na ja das mit der Hardware verdanken wir prinzipiell Microsoft. Es gab ja noch GEM, das lief auf einem 8086, anders als Windows. Leider hatte Digital research wenig Interesse es weiter zu entwickeln. Dasselbe System lief auch auf den Atari ST, die in der Leistung etwas unter einem gleich hoch getakteten 80286 waren. Nur der Unfähigkeit von Microsoft haben wir es zu verdanken das man einen 386 benötigte um eine grafische Oberfläche zu nutzen.

      Auf der anderen Seite kam Windows 3.0 als erste bedienfähige Version so spät raus, dass der 386 schon der Standardrechner war, daher habe ich diesen Aspekt unter den Tisch fallen lassen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.