Man könnte eine Reihe von Reihen über die glorreichen 10 zum Thema Computer machen – über die besten Computer, die Fortschritte in der Architektur, die Programmiersprachen, Betriebssysteme und so weiter. Heute geht es alleine um Fortschritte in der Hardwareentwicklung des Computers allgemein, also Erfindungen, aber nicht um interne Verbesserungen wie z.B. Caches oder Pipelines.
Platz 10: USB
Als einzige Schnittstelle hat es USB in diese Liste geschafft. Warum weiß jeder, der vor USB etwas an den Computer angeschlossen hat. Der Computer hatte keine Chance zu erkennen, was man angeschlossen hatte. Man musste zuerst Treiber installieren. Dabei besteht die USB-Schnittstelle nur aus wenigen Leitungen, weil es – das steckt im „S“ – ein serieller Bus ist und nur eine Datenleistung hat. Die passen dann sogar in einen kleinen USB-C Stecker. Trotzdem ist die Schnittstelle schnell – 20 GBit/s erreicht die neueste Norm, so schnell sind meist nicht mal die angeschlossenen Geräte. Man stelle sich mal vor, anstatt USB müsste man den Platz auf dem Motherboard und im Gehäuse für die vorher üblichen Schnittstellen SCSI, Centronics oder RS-232 haben, dann wäre es Essig mit 8 Ports an einem Computer und Notebooks hätten gar keine Anschlüsse. Darüber hinaus ist die Schnittstelle standardisiert. Wer ein USB Gerät an einen Raspberry Pi anschließt, also einen Rechner mit einer ARM-CPU und Linux als Betriebssystem, wird feststellen, das diese in der Regel auch funktionieren. Das wankt allerdings in letzter Zeit. Ich hatte schon „Wifi-6 Sticks“ zum Testen gehabt. Die geben sich gegenüber dem Computer als Laufwerk aus, von dem man dann doch den Treiber installieren muss und das geht dann nur noch unter Windows oder MacOS. Ohne Treiber bieten sie gar keinen Wifi-Standard, weil z.B. ein Raspberry Pi nur ein Laufwerk erkennt. Das ist schon deswegen blödsinnig, weil die meisten Sticks klein sind und die Empfangsqualität ab einer Mindestentfernung vom Router mehr von der Antennengrüße als dem Wifi-Standard abhängt.
Platz 9: Mikroprozessor
Der Mikroprozessor hat selbst in Großrechnern und Supercomputern die vom Hersteller entwickelte CPU abgelöst. Warum erscheint er nur auf dem vorletzten Platz? Ganz einfach. Der Mikroprozessor ist für mich eine folgerichtige Weiterentwicklung der integrierten Schaltung. Wenn die Anzahl der Bauelemente pro Chip steigt, reicht sie irgendwann aus, auch eine CPU auf einem Chip unterzubringen.
Intel und Texas Instruments warteten nicht, bis die Integrationsdichte so weit war, das man die bei Minicomputern üblichen 16 Bit-CPUs auf einem Chip unterbringen konnte, sondern begannen mit einer 4 Bit-CPU. Die hatte nur einen begrenzten Nutzen. Beide Firmen entwickelten sie für Tisch- und Taschenrechner, mit einem festen Programm im ROM. Richtig durchstarten konnte der Mikroprozessor ab der 8 Bit Generation. Die schnelleren 16 Bit-CPUs waren dann schon eine Konkurrenz für Minicomputer und steckten in den ersten Workstations und ab der 32 Bit Generation erreichten Mikroprozessoren auch die Leistungsfähigkeit der kleinsten Großrechner, ab der 64 Bit Generation steckten sie dann in fast allen Supercomputern.
Platz 8: Magnetbänder
Die einzige Hardware in der Liste, die es schon vor der Erfindung des Computers gab, war das Magnetband, aber als wichtige Speichertechnologie muss sie auch hier rein. Magnetbänder waren lange Zeit das wichtigste Speichermedium bei Massenspeichern, also für alles, was man nicht permanent im Zugriff haben musste. Der Sprung vom analogen Tonband zum digitalen Magnetband war klein: der Schreiblesekopf musste nur anstatt einem variabel starken Magnetfeld eines mit fester Feldstärke erzeugen, das an oder abgeschaltet wurde. Diese Technik war denn auch bei Homecomputern verbreitet, wo ein Kassettenrekorder als Datenspeicher missbraucht wurde. Der Vorteil war, das man ein Magnetband schneller lesen konnte als einen Lochstreifen, es war robuster und es passte viel drauf: ein Magnetband konnte hunderte von Metern lang sein, die Gesamtfläche eines Bandes konnte mehrere Quadratmeter betragen. Großcomputer hatten früher nicht nur eine Magnetbandlaufwerk, sondern mehrere Laufwerke, für unterschiedliche Zwecke. Wollte man Lesen und Schreiben so brauchte man zwei Laufwerke: eines zum Lesen, eines zum Schreiben, sonst wäre es durch das Spulen sehr langsam geworden. Eines brauchte man für das Betriebssystem, eines für geladene Anwendungsprogramme etc. Bilder aus den Fünfzigern bis in die Siebziger Jahre zeigen denn auch eine ganze Parade von Magnetbandlaufwerken neben der meist kleinen Konsole des eigentlichen Rechners.
Platz 7: Wechselplatten
Magnetbänder haben den großen Nachteil, dass man sie nur sequentiell schnell lesen kann, will man auf verschiedene Stellen zugreifen, so muss zeitaufwendig hin- und her-gespult werden. Schon früh etablierten sich daher andere Technologien die Daten magnetisch speicherten, aber einen schnelleren Zugriff boten. In den Fünfziger Jahren kam der Trommelspeicher auf, bei dem die Oberfläche eines schnell rotierenden Zylinders genutzt wurde. Trommelspeicher wurde meist als Arbeitsspeicher genutzt. Einige Computer bauten sogar auf seinen Eigenschaften auf – während der Computer die eingelesenen Daten verarbeitet hatte sich der Zylinder weitergedreht und legten Daten nicht sequentiell ab, sondern in der Reihenfolge, in der sie nacheinander eingelesen werden konnten, auch wenn sie auf der Oberfläche an unterschiedlichen Stellen waren und im Arbeitsspeicher nicht an linear ansteigenden Adressen.
Der lange Zeit verbreitetste Massenspeicher war dann die Wechselplatte. Man hatte die Oberfläche des Zylinders praktisch zu einer Scheibe „plattgewalzt“. Der Vorteil: im gleichen Volumen passten nun mehrere Platten anstatt eines Zylinders. Die Platten wurden in Stapeln mit einem Loch für den Motorantrieb gebündelt. Im Laufwerk selbst steckten die Schreibleseköpfe – je einer pro Plattenseite. Das Ganze war wechselbar, also eine Art Floppy-Disk nur mit starren Metallplatten und mehreren Platten anstatt einer einzigen wie bei der Floppy Disk. In den Sechziger und Siebziger Jahren waren Wechselplatten der Standardspeicher bei größeren Computern und verdrängten Magnetbänder auf die Rolle Daten zu speichern, die man nicht dauernd brauchte oder für die Archivfunktion.
Die in den siebziger Jahren aufkommende und bis zur Jahrtausendwende in allen Pcs eingesetzte Floppy Disk kann man zumindest von der Technologie her als den Nachfahren der Wechselplatte bezeichnen.
Platz 6: Ringkernspeicher
Eine frühe Herausforderung war, dass man für den Speicher viel mehr Bauelemente braucht als für die Logik. Heute hat ein PC-Prozessor wie ein Ryzen 7 etwa 1 Milliarde Transistoräquivalente. Ein 16 GByte großer Arbeitsspeicher hat aber 131 Milliarden Speicherzellen und wenn jede nur einen Transistor benötigt, so zeigt diese Zahl schon, das dies viel mehr Transistoren sind als in der viel teureren CPU stecken. Man kann den Arbeitsspeicher aus denselben Elementen wie die Logik aufbauen, doch das ist dann extrem teuer. Es wird heute nur noch bei CPU-Caches so gemacht, weil es die schnellste Technologie ist. Wie schon geschrieben setzte sich zuerst der Trommelspeicher als Arbeitsspeicher durch, er wurde dann aber schnell vom Ringkernspeicher abgelöst. Das sind kleine Eisenringe aufgefädelt auf einer zweidimensionalen Matrix, je nach Technologie auch mit einer dritten Leitung pro Kern. Legte man an eine Spalte und eine Zeile eine bestimmte Mindeststromstärke an, so konnte an dem Kreuzungspunkt die Magnetisierung des Ringkerns geändert werden. Bei einer geringen Spannung wurde je nach Magnetfeld ein Strom induziert, so lass man die Information wieder aus. Die Herstellung durch das Auffädeln auf eine Drahtmatrix war zuerst aufwendig, wurde im Laufe der Zeit aber automatisiert, sodass auch die Ringkerne immer kleiner werden konnten und der Speicher billiger wurde. Rund 20 Jahre lang waren Ringkernspeicher die normalen Arbeitsspeicher bei Computern.
Platz 5: Festplatten
Was die Datendichte von Wechselplatten begrenzte, war die Tatsache, dass der Schreib-/Lesekopf aufgrund der Entnehmbarkeit einen Mindestabstand zur Oberfläche einhalten konnte. Die Platten waren zwar wechselbar, doch damit konnten sich auch nicht mit bloßem Auge sichtbare Staubteilchen auf der Oberfläche ablagern. Das begrenzte den Minimalabstand, zudem gab es mechanische Probleme, wenn der Kopf immer näher an die Oberfläche rückte beim Einlegen der Platte.
IBM kam auf die Idee einen Plattenstapel in ein luftdicht abgeschlossenes Gehäuse zu packen. Das bedeutete, dass der Schreiblesekopf viel näher an die Oberfläche kommen konnte, die Schreibdichte stieg dadurch an. Zugleich konnten die Platten nun schneller rotieren, da es keine Gefahr gab, dass der Kopf mit einem Hindernis kollidiert, der berühmt-berüchtigte „Headcrash“. Wechseln konnte man die Platten nicht mehr, aber die anderen Vorteile überwogen, sodass sich Festplatten gegenüber den Wechselplatten durchsetzten. Sie sind übrigens die Computerkomponente mit dem größten Preisverfall: 1980 kostete eine 10 MB Festplatte noch mehr als ein kompletter PC mit zwei Floppydisklaufwerken.
Platz 4: EPROM
Das EPROM ist eine Zufallserfindung: Intel war einer der ersten Hersteller von DRAMs. Man entdeckte bei der Fertigung einen hohen Ausschuss. Bei der Untersuchung stellte sich heraus, das ein Teil der Transistoren, das Gate sich von der Basis gelöst hatte. Dieses „floating Gate“ behielt anders als ein normales Gate die Ladung, auch wenn die Spannung weggenommen wurde. Das wurde ausgenutzt, um einen programmierbaren Speicher zu haben, der anders als DRAM permanent ist. Er ist beim Auslesen aber genauso schnell wie DRAM und eignet sich so hervorragend für das Betriebssystem und Anwendungsprogramme. Früher zählte vor allem die Kostenersparnis: es gab schon einmal programmierbare ROM, aber EPROM waren wieder löschbar und so konnte man die Software testen. Später wurde aus dem UV-löschbaren EPROM das elektrisch löschbare EEPROM das man nicht zum Löschen aus dem Computer entfernen musste und da das Neubeschreiben mit einer hohen Spannung sehr lange dauert, erfolgt das beim heutigen Flash-ROM immer in großen Blöcken, anstatt wie beim EEPROM byteweise. Man stelle sich mal die heutigen Computer ohne Flash-ROM in SSD oder als ROM in Smartphones vor.
Platz 3: DRAM
Man kann aus den Logikbausteinen, also zuerst Relais, dann Radioröhren, dann Transistoren auch den Speicher aufbauen, man braucht aber dafür viele Elemente. Um ein Bit zu speichern, benötigt die Schaltung eines Flip-Flops, das dafür genutzt wird mindestens vier Elemente. Dieses „statische“ RAM war denn auch das erste kommerzielle verfügbare RAM basierend auf integrierten Schaltungen. Doch man entdeckte, dass es auch einfacher ging. Silizium ist ein Halbleitermetall, dessen Leitfähigkeit durch Dotieren erhöht wird. Dotiert man eine Stelle sehr stark, so kann man in dieser Ladungen speichern, sie wirkt praktisch wie ein Kondensator. Damit die Elektronen nicht wieder abfliießen kontrolliert ein Transistor über ihr den Zugriff. Man benötigt so pro Bit nur noch einen anstatt vier Transistoren wie beim statischen RAM, zudem ist der Aufbau des RAMs, weil es weniger Leitungen gibt, einfacher. Der Nachteil, und deswegen heißen diese RAM auch „Dynamisch“, ist das Silizium als Halbleiter die Ladung langsam abfließen lässt. Sie muss regelmäßig, alle paar Millisekunden, erneut geschrieben werden, indem sie zuerst ausgelesen, verstärkt und wieder zurückgeschrieben wird. Heute ist bis auf die CPU-internen Caches der gesamte Arbeitsspeicher aus DRAM aufgebaut.
Platz 2: Transistor
Platz 2 hat sich der Transistor verdient. Er löste die Vakuumröhre ab, einer Technologie die als Verstärker schon in Radios und später Fernsehern verwendet wurde. Gegenüber der Vakuumröhre arbeitet er nicht mit einer Hochspannung, brauchte weniger Strom und die Ströme führten zur Erosion der Elektroden, sodass Radioröhren schneller ausfielen als Transistoren. Das war wichtig. Selbst heute haben Vakuumröhren nur eine Lebensdauer von 10,000 Betriebsstunden klingt nach viel, aber eine 8 Bit CPU besteht aus 5.000 bis 8.000 Schaltelementen, in Vakuumröhrentechnik würde also jeweils ein Schaltelement pro Betriebsstunde statisch ausfallen. Als Radioröhren in Computern eingesetzt wurden, war die Lebensdauer einer Röhre noch geringer.
Daneben waren Transistoren schon bei Einführung kleiner und verbrauchten viel weniger Strom und schalteten schneller, da nicht jedes Mal ein Hochspannungsfeld auf- und abgebaut werden musste. Die Rechner wurden deutlich zuverlässiger, billiger und kleiner. Voll transistorisierte Computer führten ab Ende der Fünfziger Jahre dazu, das aus Computern als Spezialanfertigungen für bestimmte Zwecke ein universell nutzbares Werkzeug wurde und auch die Wirtschaft begann sie einzusetzen.
Platz 1: Integrierte Schaltung
Transistoren kann man zu Schaltungen kombinieren. Je kleiner sie aber wurden, desto schwieriger war das Bestücken von Hand und sie mussten auch noch verdrahtet werden. Das begrenzte die Komplexität eines Computers. Bei Texas Instruments kam man auf die Idee einen Transistor „plattzuklopfen“. Eine Siliziumoberfläche wird nacheinander mit den Schichten versehen, die einen Transistor ausmachen: die Halbleiterschichten erzeugt man durch Dotieren mit anderen Elementen, die die Leitfähigkeit von Silizium erhöhen, Leitungen durch Aufdampfen von Aluminium und Isolationsschichten ,indem man dieses Aluminium oxidiert. Damit man nur jeweils den Teil der Oberfläche bearbeitet, wird durch Masken die Bearbeitung durchgeführt und lichtempfindlicher Lack deckt nicht zu bearbeitende Teile ab. Er kann durch Licht dann wieder gelöst werden, wenn man diese Zone bearbeiten will. Heute geschieht dies durch extremes UV-Licht an der Grenze zu den Röntgenstrahlen da die kleinsten Strukturen von der Wellenlänge des Lichts abhängen. Die neueste Technik erzeugt Strukturen von 2 nm Größe, das sind weniger als 10 Van-der Waals Radien eines Siliziumatoms. Das zeigt aber auch, das wir bald eine Grenze erreichen, denn kleiner als 1 Atom kann eine Struktur nicht werden, wahrscheinlich gibt es schon früher eine Grenze, denn ein Atom dürfte bei einer elektrischen Leitung oder Isolationsschicht nicht mehr leiten oder isolieren.
Kleines Detail am Rande: Während Transistoren Vakuumröhren schnell ablösten, dauerte es fast ein Jahrzehnt bis die integrierte Schaltung über die Transistoren dominierte. Das lag daran, dass anfangs nur wenige Elemente auf die Schaltung passten und sie teuer war. Doch wir Gordon Moore schon in den Sechziger Jahren feststellte, verdoppelte sich die Zahl der Elemente sehr schnell, damals alle 12 bis 18 Monate. Damit wurde sie günstiger und die Nachfrage stieg, die dann wiederum den Preis senkte.
Was haltet ihr von den Nicht-Raumfahrtthemen bei den „Glorreichen 10„. Rückmeldung ist erwünscht.