Die glorreichen 10 – die wichtigsten Innovationen bei der Hardwareentwicklung der Computer
Man könnte eine Reihe von Reihen über die glorreichen 10 zum Thema Computer machen – über die besten Computer, die Fortschritte in der Architektur, die Programmiersprachen, Betriebssysteme und so weiter. Heute geht es alleine um Fortschritte in der Hardwareentwicklung des Computers allgemein, also Erfindungen, aber nicht um interne Verbesserungen wie z.B. Caches oder Pipelines.
Platz 10: USB
Als einzige Schnittstelle hat es USB in diese Liste geschafft. Warum weiß jeder, der vor USB etwas an den Computer angeschlossen hat. Der Computer hatte keine Chance zu erkennen, was man angeschlossen hatte. Man musste zuerst Treiber installieren. Dabei besteht die USB-Schnittstelle nur aus wenigen Leitungen, weil es – das steckt im „S“ – ein serieller Bus ist und nur eine Datenleistung hat. Die passen dann sogar in einen kleinen USB-C Stecker. Trotzdem ist die Schnittstelle schnell – 20 GBit/s erreicht die neueste Norm, so schnell sind meist nicht mal die angeschlossenen Geräte. Man stelle sich mal vor, anstatt USB müsste man den Platz auf dem Motherboard und im Gehäuse für die vorher üblichen Schnittstellen SCSI, Centronics oder RS-232 haben, dann wäre es Essig mit 8 Ports an einem Computer und Notebooks hätten gar keine Anschlüsse. Darüber hinaus ist die Schnittstelle standardisiert. Wer ein USB Gerät an einen Raspberry Pi anschließt, also einen Rechner mit einer ARM-CPU und Linux als Betriebssystem, wird feststellen, das diese in der Regel auch funktionieren. Das wankt allerdings in letzter Zeit. Ich hatte schon „Wifi-6 Sticks“ zum Testen gehabt. Die geben sich gegenüber dem Computer als Laufwerk aus, von dem man dann doch den Treiber installieren muss und das geht dann nur noch unter Windows oder MacOS. Ohne Treiber bieten sie gar keinen Wifi-Standard, weil z.B. ein Raspberry Pi nur ein Laufwerk erkennt. Das ist schon deswegen blödsinnig, weil die meisten Sticks klein sind und die Empfangsqualität ab einer Mindestentfernung vom Router mehr von der Antennengrüße als dem Wifi-Standard abhängt.
Platz 9: Mikroprozessor
Der Mikroprozessor hat selbst in Großrechnern und Supercomputern die vom Hersteller entwickelte CPU abgelöst. Warum erscheint er nur auf dem vorletzten Platz? Ganz einfach. Der Mikroprozessor ist für mich eine folgerichtige Weiterentwicklung der integrierten Schaltung. Wenn die Anzahl der Bauelemente pro Chip steigt, reicht sie irgendwann aus, auch eine CPU auf einem Chip unterzubringen.
Intel und Texas Instruments warteten nicht, bis die Integrationsdichte so weit war, das man die bei Minicomputern üblichen 16 Bit-CPUs auf einem Chip unterbringen konnte, sondern begannen mit einer 4 Bit-CPU. Die hatte nur einen begrenzten Nutzen. Beide Firmen entwickelten sie für Tisch- und Taschenrechner, mit einem festen Programm im ROM. Richtig durchstarten konnte der Mikroprozessor ab der 8 Bit Generation. Die schnelleren 16 Bit-CPUs waren dann schon eine Konkurrenz für Minicomputer und steckten in den ersten Workstations und ab der 32 Bit Generation erreichten Mikroprozessoren auch die Leistungsfähigkeit der kleinsten Großrechner, ab der 64 Bit Generation steckten sie dann in fast allen Supercomputern.
Platz 8: Magnetbänder
Die einzige Hardware in der Liste, die es schon vor der Erfindung des Computers gab, war das Magnetband, aber als wichtige Speichertechnologie muss sie auch hier rein. Magnetbänder waren lange Zeit das wichtigste Speichermedium bei Massenspeichern, also für alles, was man nicht permanent im Zugriff haben musste. Der Sprung vom analogen Tonband zum digitalen Magnetband war klein: der Schreiblesekopf musste nur anstatt einem variabel starken Magnetfeld eines mit fester Feldstärke erzeugen, das an oder abgeschaltet wurde. Diese Technik war denn auch bei Homecomputern verbreitet, wo ein Kassettenrekorder als Datenspeicher missbraucht wurde. Der Vorteil war, das man ein Magnetband schneller lesen konnte als einen Lochstreifen, es war robuster und es passte viel drauf: ein Magnetband konnte hunderte von Metern lang sein, die Gesamtfläche eines Bandes konnte mehrere Quadratmeter betragen. Großcomputer hatten früher nicht nur eine Magnetbandlaufwerk, sondern mehrere Laufwerke, für unterschiedliche Zwecke. Wollte man Lesen und Schreiben so brauchte man zwei Laufwerke: eines zum Lesen, eines zum Schreiben, sonst wäre es durch das Spulen sehr langsam geworden. Eines brauchte man für das Betriebssystem, eines für geladene Anwendungsprogramme etc. Bilder aus den Fünfzigern bis in die Siebziger Jahre zeigen denn auch eine ganze Parade von Magnetbandlaufwerken neben der meist kleinen Konsole des eigentlichen Rechners.
Platz 7: Wechselplatten
Magnetbänder haben den großen Nachteil, dass man sie nur sequentiell schnell lesen kann, will man auf verschiedene Stellen zugreifen, so muss zeitaufwendig hin- und her-gespult werden. Schon früh etablierten sich daher andere Technologien die Daten magnetisch speicherten, aber einen schnelleren Zugriff boten. In den Fünfziger Jahren kam der Trommelspeicher auf, bei dem die Oberfläche eines schnell rotierenden Zylinders genutzt wurde. Trommelspeicher wurde meist als Arbeitsspeicher genutzt. Einige Computer bauten sogar auf seinen Eigenschaften auf – während der Computer die eingelesenen Daten verarbeitet hatte sich der Zylinder weitergedreht und legten Daten nicht sequentiell ab, sondern in der Reihenfolge, in der sie nacheinander eingelesen werden konnten, auch wenn sie auf der Oberfläche an unterschiedlichen Stellen waren und im Arbeitsspeicher nicht an linear ansteigenden Adressen.
Der lange Zeit verbreitetste Massenspeicher war dann die Wechselplatte. Man hatte die Oberfläche des Zylinders praktisch zu einer Scheibe „plattgewalzt“. Der Vorteil: im gleichen Volumen passten nun mehrere Platten anstatt eines Zylinders. Die Platten wurden in Stapeln mit einem Loch für den Motorantrieb gebündelt. Im Laufwerk selbst steckten die Schreibleseköpfe – je einer pro Plattenseite. Das Ganze war wechselbar, also eine Art Floppy-Disk nur mit starren Metallplatten und mehreren Platten anstatt einer einzigen wie bei der Floppy Disk. In den Sechziger und Siebziger Jahren waren Wechselplatten der Standardspeicher bei größeren Computern und verdrängten Magnetbänder auf die Rolle Daten zu speichern, die man nicht dauernd brauchte oder für die Archivfunktion.
Die in den siebziger Jahren aufkommende und bis zur Jahrtausendwende in allen Pcs eingesetzte Floppy Disk kann man zumindest von der Technologie her als den Nachfahren der Wechselplatte bezeichnen.
Platz 6: Ringkernspeicher
Eine frühe Herausforderung war, dass man für den Speicher viel mehr Bauelemente braucht als für die Logik. Heute hat ein PC-Prozessor wie ein Ryzen 7 etwa 1 Milliarde Transistoräquivalente. Ein 16 GByte großer Arbeitsspeicher hat aber 131 Milliarden Speicherzellen und wenn jede nur einen Transistor benötigt, so zeigt diese Zahl schon, das dies viel mehr Transistoren sind als in der viel teureren CPU stecken. Man kann den Arbeitsspeicher aus denselben Elementen wie die Logik aufbauen, doch das ist dann extrem teuer. Es wird heute nur noch bei CPU-Caches so gemacht, weil es die schnellste Technologie ist. Wie schon geschrieben setzte sich zuerst der Trommelspeicher als Arbeitsspeicher durch, er wurde dann aber schnell vom Ringkernspeicher abgelöst. Das sind kleine Eisenringe aufgefädelt auf einer zweidimensionalen Matrix, je nach Technologie auch mit einer dritten Leitung pro Kern. Legte man an eine Spalte und eine Zeile eine bestimmte Mindeststromstärke an, so konnte an dem Kreuzungspunkt die Magnetisierung des Ringkerns geändert werden. Bei einer geringen Spannung wurde je nach Magnetfeld ein Strom induziert, so lass man die Information wieder aus. Die Herstellung durch das Auffädeln auf eine Drahtmatrix war zuerst aufwendig, wurde im Laufe der Zeit aber automatisiert, sodass auch die Ringkerne immer kleiner werden konnten und der Speicher billiger wurde. Rund 20 Jahre lang waren Ringkernspeicher die normalen Arbeitsspeicher bei Computern.
Platz 5: Festplatten
Was die Datendichte von Wechselplatten begrenzte, war die Tatsache, dass der Schreib-/Lesekopf aufgrund der Entnehmbarkeit einen Mindestabstand zur Oberfläche einhalten konnte. Die Platten waren zwar wechselbar, doch damit konnten sich auch nicht mit bloßem Auge sichtbare Staubteilchen auf der Oberfläche ablagern. Das begrenzte den Minimalabstand, zudem gab es mechanische Probleme, wenn der Kopf immer näher an die Oberfläche rückte beim Einlegen der Platte.
IBM kam auf die Idee einen Plattenstapel in ein luftdicht abgeschlossenes Gehäuse zu packen. Das bedeutete, dass der Schreiblesekopf viel näher an die Oberfläche kommen konnte, die Schreibdichte stieg dadurch an. Zugleich konnten die Platten nun schneller rotieren, da es keine Gefahr gab, dass der Kopf mit einem Hindernis kollidiert, der berühmt-berüchtigte „Headcrash“. Wechseln konnte man die Platten nicht mehr, aber die anderen Vorteile überwogen, sodass sich Festplatten gegenüber den Wechselplatten durchsetzten. Sie sind übrigens die Computerkomponente mit dem größten Preisverfall: 1980 kostete eine 10 MB Festplatte noch mehr als ein kompletter PC mit zwei Floppydisklaufwerken.
Platz 4: EPROM
Das EPROM ist eine Zufallserfindung: Intel war einer der ersten Hersteller von DRAMs. Man entdeckte bei der Fertigung einen hohen Ausschuss. Bei der Untersuchung stellte sich heraus, das ein Teil der Transistoren, das Gate sich von der Basis gelöst hatte. Dieses „floating Gate“ behielt anders als ein normales Gate die Ladung, auch wenn die Spannung weggenommen wurde. Das wurde ausgenutzt, um einen programmierbaren Speicher zu haben, der anders als DRAM permanent ist. Er ist beim Auslesen aber genauso schnell wie DRAM und eignet sich so hervorragend für das Betriebssystem und Anwendungsprogramme. Früher zählte vor allem die Kostenersparnis: es gab schon einmal programmierbare ROM, aber EPROM waren wieder löschbar und so konnte man die Software testen. Später wurde aus dem UV-löschbaren EPROM das elektrisch löschbare EEPROM das man nicht zum Löschen aus dem Computer entfernen musste und da das Neubeschreiben mit einer hohen Spannung sehr lange dauert, erfolgt das beim heutigen Flash-ROM immer in großen Blöcken, anstatt wie beim EEPROM byteweise. Man stelle sich mal die heutigen Computer ohne Flash-ROM in SSD oder als ROM in Smartphones vor.
Platz 3: DRAM
Man kann aus den Logikbausteinen, also zuerst Relais, dann Radioröhren, dann Transistoren auch den Speicher aufbauen, man braucht aber dafür viele Elemente. Um ein Bit zu speichern, benötigt die Schaltung eines Flip-Flops, das dafür genutzt wird mindestens vier Elemente. Dieses „statische“ RAM war denn auch das erste kommerzielle verfügbare RAM basierend auf integrierten Schaltungen. Doch man entdeckte, dass es auch einfacher ging. Silizium ist ein Halbleitermetall, dessen Leitfähigkeit durch Dotieren erhöht wird. Dotiert man eine Stelle sehr stark, so kann man in dieser Ladungen speichern, sie wirkt praktisch wie ein Kondensator. Damit die Elektronen nicht wieder abfliießen kontrolliert ein Transistor über ihr den Zugriff. Man benötigt so pro Bit nur noch einen anstatt vier Transistoren wie beim statischen RAM, zudem ist der Aufbau des RAMs, weil es weniger Leitungen gibt, einfacher. Der Nachteil, und deswegen heißen diese RAM auch „Dynamisch“, ist das Silizium als Halbleiter die Ladung langsam abfließen lässt. Sie muss regelmäßig, alle paar Millisekunden, erneut geschrieben werden, indem sie zuerst ausgelesen, verstärkt und wieder zurückgeschrieben wird. Heute ist bis auf die CPU-internen Caches der gesamte Arbeitsspeicher aus DRAM aufgebaut.
Platz 2: Transistor
Platz 2 hat sich der Transistor verdient. Er löste die Vakuumröhre ab, einer Technologie die als Verstärker schon in Radios und später Fernsehern verwendet wurde. Gegenüber der Vakuumröhre arbeitet er nicht mit einer Hochspannung, brauchte weniger Strom und die Ströme führten zur Erosion der Elektroden, sodass Radioröhren schneller ausfielen als Transistoren. Das war wichtig. Selbst heute haben Vakuumröhren nur eine Lebensdauer von 10,000 Betriebsstunden klingt nach viel, aber eine 8 Bit CPU besteht aus 5.000 bis 8.000 Schaltelementen, in Vakuumröhrentechnik würde also jeweils ein Schaltelement pro Betriebsstunde statisch ausfallen. Als Radioröhren in Computern eingesetzt wurden, war die Lebensdauer einer Röhre noch geringer.
Daneben waren Transistoren schon bei Einführung kleiner und verbrauchten viel weniger Strom und schalteten schneller, da nicht jedes Mal ein Hochspannungsfeld auf- und abgebaut werden musste. Die Rechner wurden deutlich zuverlässiger, billiger und kleiner. Voll transistorisierte Computer führten ab Ende der Fünfziger Jahre dazu, das aus Computern als Spezialanfertigungen für bestimmte Zwecke ein universell nutzbares Werkzeug wurde und auch die Wirtschaft begann sie einzusetzen.
Platz 1: Integrierte Schaltung
Transistoren kann man zu Schaltungen kombinieren. Je kleiner sie aber wurden, desto schwieriger war das Bestücken von Hand und sie mussten auch noch verdrahtet werden. Das begrenzte die Komplexität eines Computers. Bei Texas Instruments kam man auf die Idee einen Transistor „plattzuklopfen“. Eine Siliziumoberfläche wird nacheinander mit den Schichten versehen, die einen Transistor ausmachen: die Halbleiterschichten erzeugt man durch Dotieren mit anderen Elementen, die die Leitfähigkeit von Silizium erhöhen, Leitungen durch Aufdampfen von Aluminium und Isolationsschichten ,indem man dieses Aluminium oxidiert. Damit man nur jeweils den Teil der Oberfläche bearbeitet, wird durch Masken die Bearbeitung durchgeführt und lichtempfindlicher Lack deckt nicht zu bearbeitende Teile ab. Er kann durch Licht dann wieder gelöst werden, wenn man diese Zone bearbeiten will. Heute geschieht dies durch extremes UV-Licht an der Grenze zu den Röntgenstrahlen da die kleinsten Strukturen von der Wellenlänge des Lichts abhängen. Die neueste Technik erzeugt Strukturen von 2 nm Größe, das sind weniger als 10 Van-der Waals Radien eines Siliziumatoms. Das zeigt aber auch, das wir bald eine Grenze erreichen, denn kleiner als 1 Atom kann eine Struktur nicht werden, wahrscheinlich gibt es schon früher eine Grenze, denn ein Atom dürfte bei einer elektrischen Leitung oder Isolationsschicht nicht mehr leiten oder isolieren.
Kleines Detail am Rande: Während Transistoren Vakuumröhren schnell ablösten, dauerte es fast ein Jahrzehnt bis die integrierte Schaltung über die Transistoren dominierte. Das lag daran, dass anfangs nur wenige Elemente auf die Schaltung passten und sie teuer war. Doch wir Gordon Moore schon in den Sechziger Jahren feststellte, verdoppelte sich die Zahl der Elemente sehr schnell, damals alle 12 bis 18 Monate. Damit wurde sie günstiger und die Nachfrage stieg, die dann wiederum den Preis senkte.
Was haltet ihr von den Nicht-Raumfahrtthemen bei den „Glorreichen 10„. Rückmeldung ist erwünscht.
Hallo,
mit Platz 10: USB bin ich nicht so ganz glücklich:
die Alternativen, wenn man bei der Kommunikation bleiben will, wären:
a) Ethernet
b) serielle Schnittstelle
Ein Problem mit USB ist, das der Host Treiber (USB Stack) so groß ist, das man ihn nicht auf einem 8bit und nur problematisch auf einem 16bit System implementieren kann. Damit fällt es im kleinen embedded Bereich aus.
Die Implementierungen sind angeblich so aufwendig, das es nur welche im PC Bereich (Windows, MacOS, Linux, xBSD), AIX und für Spielekonsolen gibt.
Bei Ethernet kann man mit entsprechenden Switchen immer noch ein Gerät welches mit 10MBit Ethernet ausgestattet ist mit modernen PCs verknüpfen. Ist dann meist limitiert auf telnet und rsh/rcp. (ggf. geht das sogar noch mit dem uralten 2,5MBit Ethernet, aber da sind die Switche schwer zu finden.)
Ein UDP/IP only Treiber passt auf einen 8bit Rechner, TCP/IP passt bequem auf ein 16bit System.
Eine serielle Schnittstelle kann man auf einem 8051 oder einem ähnlichen System implementieren. Es ist die einzige universelle Schnittstelle für viele embedded Systeme.
Wenn man Platz sparen will kann man RS232 als RJ45 Buchse (vorzugsweise mit Cisco Pinout) implementieren, alternativ mit kleinen 3pol Klinkensteckern.
Der große Nachteil ist, daß es viele unterschiedliche Stecker und Pinouts gibt, und man regelmäßig Adapter löten oder zusammenstecken muß.
Probleme mit der seriellen Schnittstelle:
– beim PC wurde die serielle Schnittstelle nicht wie bei vielen älteren und anderen Computern als Systemconsole definiert. Diese ist wie bei den Homecomputern Bildschirm und Tastatur. Das führte dann zu den KVM Switchen für das remote Management.
– bei den Laptops wurde schon ab 2000 auf die serielle Schnittstelle verzichtet, und die User auf die USB-serial Adapter gezwungen. Die funktionierten (und funktionieren) aber nur für bis zu 95% der Anwendungen.
– elektrisch es gibt es RS-232, RS-422 und viele weitere Implementierungen.
MfG
Jas Ethernet wäre wohl eine bessere Wahl gewesen, fiel mir einfach nicht ein, ews ermöglichte erst das Internet und die Vernetzung beliebiger Computer und hat daher auch alle anderen firmeninternen Lösungen verdrängt. Deine Begeisterung für die serielle Schnittstelle kann ich nicht ganz nachvollziehen. Also USB kam so 1998 auf, da hatte keiner mehr ein 8 oder 16 Bit System. Übrigens sind meine beiden Z80 Minirechner über USB an den PC angeschlossen und nutzen den als Terminal. Zugegeben mit einem Treiber der auf USB eine serielle Schnittstelle simuliert – man kann also beides haben!
Hallo Herr Leitenberger,
Ihre Liste betrachtet Bauelemente eines Computers.
Wenn man es von der Seite der Erfindungen oder der Ideen betrachtet, gibt es ganz andere Elemente für eine Liste:
die „von Neumann Architektur“:
die ältesten Rechner waren in der Harvard Architektur aufgebaut, und hatten unterschiedliche Speicher für die Befehle und für die Daten.
selbstmodifizierender Code:
ist erst mit der „von Neumann Architektur“ möglich. Will man möglichst nur eingeschränkt nutzen, ist aber für einen Linker (alternativ den Lader) erforderlich.
das Konzept von Unterprogrammen.
der gosub bzw. jump and link Befehl:
zum Aufruf von Unterprogrammen, die zum Hauptprogramm zurückkehren können.
der Stack:
ermöglicht rekursive Unterprogramme, und vermindert z.T. den Speicherbedarf.
virtual Memory:
ermöglicht das einfache Auslagern von Programmen und Daten aus dem RAM auf secondary storage. (war lange die Festplatte, kann aber auch eine SSD oder secondary RAM sein.)
virtual I/O:
Vorbild ist der Channel Controller der IBM360 Architektur. Die verschiendenen I/O devices werden von der Hardware verwaltet, und ein Programm greift immer gleich darzuf zu.
Virtuelle Rechner:
Vorbild ist die Virtualisierung der IBM360 Architektur, wurde dann auf die IBM370 portiert.
Erfordert die Virtualisierung des I/O.
MfG
Tja das wären nun die Teile die es in den nächsten Glorreichen 10 über die Architektur von Computern geht.
Mir gefallen Deine „top 10“ Beiträge, weiter so!
Ich finde die Priorisierung bei diesem Thema schwer (ich wüßte nicht, wie ich es machen würde), aber über die Plätze 9, 2, und 1 kann man sicherlich diskutieren. Dein Argument, warum der µP auf neun liegt (weil Weiterentwicklung) ist doch genauso anwendbar für die integrierten Schaltungen, die letztlich eine gewisse Art der Weiterentwicklung des Transistors darstellen.
Ich würde den Transistor an sich auf Platz 1 stellen, nicht nur für die Computerei, eigentlich für alles, was irgendwie mit Elektronik und Elektrik zu tun hat, ist er DIE wesentliche Basis für all die Entwicklungen, die wir heute sehen und für selbstverständlich halten.
Schön auch mal Rückmeldung zu bekommen, ohne positive Rückmeldung stelle ich nämlich Sachen auch wieder ein, da ich davon ausgehe das es keinen interessiert.
Die integrierte Schaltung ist in der Fertigung nicht vergleichbar der eines Transistors. Das ist eine komplett andere Technologie und daher keine Evolution des Transistors.
Der Artikel ist we schon gesagt über die Computerei, nicht Elektronik. Daher denke ich ist der zweite Platz verdient.
zu „Ich würde den Transistor an sich auf Platz 1 stellen“:
aus meiner Sicht eher nicht.
Computer aus Einzeltransistoren waren eher Einzelstücke, oder Kleinserien mit <10 baugleichen Systemen. Eine Serienfertigung ist damit eher Problematisch.
In der allgemeinen Elektronik kann man bis zum Radio und mindestens dem Schwarzweiß Fernseher alles in Röhrentechnik aufbauen. Halbleiter Dioden vereinfachen die Sache aber schon. Steuerungen waren in den 1970er Jahren oft noch elektromechanisch aufgebaut. (Ölbrenner, Waschmaschine, Heizungssteuerung)
MfG
Richtig dass elektronische Computer selten aus diskreten Transistoren aufgebaut waren.
Aber im Ranking der wichtigsten Innovationen sehe ich den Transistor als Grundlage der heutigen Entwicklung.Denn: ohne Transistor auch keine ICs und keine µPs.
Aber wie heißt es so schön: your mileage may vary 🙂
Mir gefällt die Rubrik auch gut.
Super, dass direkt weiterführende Links dabei sind.