Die wichtigste Hardwareentwicklung bei den Computern
Was war die wichtigste Entwicklung bei der Evolution oder besser gesagt Revolution der Entwicklung der Computer? Also jeder darf mal raten, die Auflösung folgt noch. Aber der Aufsatz geht eigentlich um die Schritte bei der Entwicklung der Computer, die sie schneller, kleiner, und preiswerter machten. Ich habe sie in drei Sektionen unterteilt: Die Hardwareentwicklung bei der Logik, bei der Speichertechnologie und den Massenspeichern. Da der Artikel beim Schreiben immer länger wurde, habe ich ihn in zwei Teile aufgeteilt. Die Lösung für meine Frage erfahrt ihr also erst morgen, aber ihr könnte ja jetzt schon raten und bitte auch eure Antwort begründen. Wer weiß, vielleicht habe ich auch die wichtigste Entdeckung gar nicht gewürdigt. Denn es gab zahlreiche Entwicklungen in der Hardware und ich habe nur einige herausgepickt, von denen ich subjektiv meine das sie wichtiger als andere Entwicklungen sind. Netze – und damit das Internet – habe ich bewusst ausgeblendet, da kenne ich mich auch nicht so gut aus wie bei anderen Themen.
Logik – der Prozessor
Ich fange nicht an bei den Konzepten für Rechenmaschinen, auch wenn einige beeindruckend waren. Ich beginne beim ersten Computer der von Konrad Zuse erfunden oder besser gesagt entwickelt wurde. Grundlage eines Computers ist ein Schalter. Wie ein Schalter in der Wohnung hat ein Schalter zwei Zustände: er kann Strom durchlassen oder blockieren. Das Umschalten übernimmt im Computer eine Steuerleitung.
Aus vielen solchen Schaltern kann man die CPU also den Prozessor eines Computers aufbauen. Dazu organisiert man sie in funktionelle Einheiten. Zuerst in Gatter die Eingangssignale logisch verknüpfen. Aus diesen Gattern kann man dann funktionelle Einheiten wie einen Addierer aufbauen und aus solchen funktionellen Einheiten dann den Prozessor selbst. Analoges gilt dann auch für andere Gruppen, die sich um Ein-/Ausgabe oder Kommunikation kümmern.
Relais
Zuses Computer verwandten Relais, elektromechanische Teile, die in Massen in der Vermittlung bei der Post eingesetzt wurden. Relais befinden sich auch heute noch in Schaltkästen und sie sind leicht an einem deutlich hörbaren Klick zu erkennen.
Konrad Zuse entwickelte zwar während des Zweiten Weltkriegs und seine Computer wären sicherlich kriegswichtig gewesen, doch er bekam keinerlei offizielle Unterstützung. An die Relais kam er verhältnismäßig einfach heran. Daher verwandte er sie. Bedingt durch die Umschaltung eines mechanischen Kontaktes sind Relais relativ langsam. Zuse überlegte auch Radioröhren einzusetzen. Der Kontakt kommt in Elektronenröhren wie sie in Radios als Verstärker eingesetzt wurden, durch Ionen zustande, die von einer Kathode emittiert werden. Das geht viel schneller als mit Relais.
Elektronenröhren
Doch an die benötigte Anzahl von Radioröhren – mehrere Tausend für einen Computer – kam er zum einen nicht heran. Zum andern war deren Lebensdauer zu gering. Wenn eine Radioröhre Tausend Stunden lang lebt, dann fällt durchschnittlich eine pro Stunde aus und in der Größenordnung lag die Anzahl der Bauteile, die er benötigte. Er verwarf daher diese Idee.
In den USA verwandte man trotzdem für ihren ersten Computer den ENIAC und die folgenden Rechner Radioröhren. Entsprechend musste man sehr oft reparieren. Der erste Bug der Geschichte war eine Motte, die einen Kurzschluss verursachte. Sie waren eben deutlich schneller als Zudes Rechner. Zuses Rechner Z3 schaffte maximal 2 Additionen pro Sekunde, ENIAC in den USA dagegen 5.000 pro Sekunde.
Diese Rechner wurden von Regierungsinstituten eingesetzt. Sie wurden einzeln gefertigt und benötigten sehr viel Platz, weil Radioröhren sehr viel Strom in Wärme umsetzen. Solange Rechner mit Radioröhren betrieben wurden, war ihr Einsatz begrenzt.
Transistoren
Die Erfindung des Transistors änderte dies. Ein Transistor besteht aus drei Schichten. Einem Emitter, wo der Strom hineinkommt, einem Gate, das steuert, ob der Strom durchgelassen wird (die Steuerleitung) und dem Drain wo der Strom landet oder eben nicht. Ein Transistor ist ein Festkörper, viel unempfindlicher als eine Elektronenröhre, viel kleiner, viel weniger Strom verbrauchend. Die ersten Transistoren bestanden aus Germanium, einem Halbleiterelement mit einer hohen Leitfähigkeit. Heute bestehen sie meist aus Silizium. Silizium leitet den Strom viel schlechter. Durch gezieltes Einbringen von Fremdatomen kann man seine Leitfähigkeit aber erhöhen. Bis man dieses Dotieren aber ausreichend ausgereift hatte, dauerte es ein Jahrzehnt, denn wir reden von wirklich wenigen Fremdatomen, die gleichmäßig verteilt werden müssen. Dafür ist Silizium viel preiswerter, es gibt es buchstäblich so häufig wie Sand am Meer (wichtigste Quelle für die Herstellung von Silizium ist Quarzsand)
Mit Transistoren wurden Computer viel zuverlässiger, kleiner brauchten weniger Energie und zogen nun auch in Unternehmen ein. Transistoren hielt sich sehr lange, noch bis Ende der Sechziger Jahre wurden die meisten Computer aus Transistoren aufgebaut.
Integrierte Schaltungen – IC
Dabei war die integrierte Schaltung schon 1958 erfunden worden. In einer integrierten Schaltung sind mehrere Transistoren zu einer Schaltung verbunden. Erstaunlicherweise setzte sie sich nur langsam durch. Das lag sicherlich zuerst an dem hohen Preis. Eine integrierte Schaltung kostete anfangs über 100 Dollar und ersetzte nur wenige Bauelemente. Kommerzielle Computerbauer machten einen Bogen um sie. Sie wurde drastisch billiger, weil NASA und DoD in den ersten Jahren etwa 50 Prozent der Produktion der USA abnahmen und so für die Verbilligung sorgten. Aber für die Bordelektronik von Raketen und im Apolloprogramm waren Computer aus Transistoren einfach zu groß und verbrauchten zu viel Strom.
Unternehmen setzte sie trotzdem auch sie sie Mitte der Sechziger Jahre bedeutend preiswerter wurden selten ein. Transistoren waren einfach billiger und die Integrationsdichte war bis Ende der Sechziger Jahre gering. Zudem konnte man nicht die Schaltung frei designen, sondern musste sie aus Standardbausteinen aufbauen. Die Verdrängung begann, als Schaltungen billiger wurden als Schaltungen aus Transistoren und vor allem man Probleme hatte die Transistoren – die auch immer kleiner wurden, auf Platinen zu verlöten und zu verdrahten. Das Bild zeigt ein geplantes Modul der (nie gebauten) CDC-8600. Jeder der farbigen Punkte ist ein Transistor.
Es etablierte sich standardisierten Schaltungen. Jeder, der mal in den Achtzigern einen Computer hatte und sich mal die Hauptplatine angesehen hat, wird über zahlreiche deiser Bausteine stolpern, deren Bezeichnung alle mit „74“ beginnen. Die Serie wurde von Texas Instruments herausgebracht und permanent weiter entwickelt. Einfache Elemente bestanden nur aus mehreren Gattern. Es gab aber auch Spezialbausteine wie für die Konvertierung von Binär in BCD (benötigten Tischrechner), Demutiplexer – ein Ausgang hatte abhängig von n Eingängen Strom, wichtig für das Banking von Speicher.
Man baute Computer nun aus solchen Schaltungen auf. So entstanden durchaus leistungsfähige und auch berühmte Rechner. Die VAX war so aufgebaut und auch der Xerox Alto. Beide verwandten als ALU sogar den gleichen Baustein eine 74181. Das ist eine 4 Bit Alu, die bis zu 28 MHz getaktet werden kann. Will man eine 16 Bit Alu konstruieren so braucht man vier dieses Alus und noch einige Bausteine um die Carrybits zu übertragen.
Der Mikroprozessor
Eher eine Zufallserfindung war der Mikroprozessor. Er war die Auftragsarbeit eines japanischen Herstellers von Büroelektronik. Ted Hoff, einer der Erfinder kam auf die Idee die gesamten Logikbausteine der CPU in einen Baustein zusammenzufassen. Er sah das als eine einfache Lösung für diesen beschränkten Zweck. In einem Interview sagte er hätte nie daran geglaubt das dieser Mikroprozessor mal das Herz eines Computers sein würde, da es nur ein 4-Bit-Prozessor mit beschränkter Geschwindigkeit war. Mit 100 Bausteinen hätte man einen viel schnellere 16 Bit CPU konstruieren können.
Was man vergaß. Damit war die CPU ein Massenprodukt geworden. Wer einen Computer selbst konstruieren wollte brauchte nur noch einige Bausteine für RAM und ROM sowie für die Adressdekodierung und Signalverstärkung. Vorher brauchte eine Firma einen Ingenieursstab, um einen Computer zu konstruieren, jetzt konnte das eine einzige Person tun – wie Stephen Wozniak beim Apple II. Es gab sehr bald eine Schwemme von Computern, die alle die gleiche CPU einsetzten. Auch dass die Massenproduktion die Preise senkte, wurde schon bald deutlich. Vor Intel hatte schon Texas Instruments den Mikroprozessor erfunden, aber Intel hatte ihn zuerst auf den Markt gebracht. Doch danach setzte Texas Instruments ihn zuerst in ihren Taschen- und Tischrechnern ein, die so einen rapiden Preisverfall in den Siebziger Jahren erlebten.
Anwendungsspezifische Schaltungen
Eine Fortentwicklung der integrierten Schaltung die das gleiche Prinzip wie der Mikroprozessor umsetzte, war die anwendungsspezifische Schaltung (ASIC). Es gab hier mehrere Technologien. Wurde eine Massenfertigung angestrebt, so war es billiger viele der IC die man auf dem Mainboard hatte, zu einer einzigen Schaltung zusammenzufassen, die alle Funktionen beinhaltete. Diese Schaltung wurde dann wie jeder andere IC gefertigt und hieß in der Achtzigern aufgrund des Aufbaus Gate Array. Ein Beispiel ist die Evolution des Sinclair ZX80 zum ZX81. Ein Gate Array reduzierte die Anzahl der Chips von 21 auf fünf, später sogar nur vier.
Schon vorher gab es andere Technologien für ASIC. Der Minicomputer Data General Eclipse wurde vor allem aus PAL gefertigt, das sind in Serie gefertigte Bausteine, bei denen man durch das Anlegen einer Programmierspannung bestimmte Verbindungen und damit logische Pfade durchbrennen lies. Das ging nur einmal, reichte aber aus. PAL lohnen sich, wenn die Stückzahl zu klein für den Auftrag für ein Gate Array ist. Heute gibt es wiederbeschreibbare logische Schaltungen (FPGA). Sie werden gerne zweckentfremdet, um mit ihnen alte Rechner der 8 und 16 Bit Generation zu emulieren. Die beiden Chipriesen Intel und AMD sehen die Technologie als so wichtig an das sie die bedien führenden Hersteller Altera und Xilinx aufgekauft haben.
Eine relativ spät erscheinende aber den PC-Markt umkrempelnde ASIC war der Chipsatz. IBM fertigte seine Hauptplatinen für den IBM PC und IBM PC AT selbst, mit vielen Bauteilen der 74-Serie. Das taten auch Nachtbauer des IBM PC wie Commodore, Tandy, Tandom, Wang, HP. Dann trat die Firma Chips & Technologies auf den Markt und bot die gesamten ICs eines 286-er Mainboards in drei Bausteinen als Chipsatz an. Von nun an konnten nicht nur große Computerhersteller die Hauptplatinen und damit den PC fertigen, sondern auch viele kleine Firmen, es begann die Ära der No-Name PC mit Hauptplatinen, die vor allem in Taiwan gefertigt wurden und damit sanken die Preise für einen PC schneller als je zuvor ein, eine Entwicklung der IBM nicht mehr folgen konnte.
Heute integriert der Chipsatz nicht nur wie damals die Funktion der Hauptplatine. Damals waren noch zusätzliche Karten für Diskettenkontroller, Festplattentonkoller, Grafikkarte und Anschlüsse wie für den Drucker oder Modem notwendig. Heute ist das alles im Chipsatz und auch bei anderen Geräten vom Router über das Smartphone bis zum Fitnesstracker steckt heute die gesamte Elektronik im Chipsatz.
Aus meiner Sicht gab es zwei relevante Hardware Entwicklungen:
1) das Relais: mit zuverlässigen Relais, die in Serie gefertigt werden, lassen sich überhaupt schon mal Computer wie die Zuse Z1 – Z4 konstruieren. Die können dann nur 2 Additionen pro Sekunde, sind aber für bestimmte Automatisierungsaufgaben schon ausreichend.
2) die integrierte Schaltung a la 74xx und 74xxx als zuverlässiges und preiswertes Serienprodukt:
Damit passte eine CPU auf eine Platine.
Damit konnte man kleine Computer etwa zum Preis eines Neuwagens bauen.
MfG