Die wichtigste Hardwareentwicklung bei den Computern – Teil 2
So weiter geht es mit dem Artikel / Rätsel. Befasste sich Teil 1 gestern mit der Logik eines Computers so geht es heute um den Arbeits- und Massenspeicher.
Speichertechnologien
Den Arbeitsspeicher kann man prinzipiell aus denselben Elementen aufbauen wie die Logik. Auch hier kann man sich zunutze machen, dass ein Schalter zwei Zustände hat und so ein Bit speichern kann. Doch das ist nicht wirtschaftlich. Ein Prozessor in ihrem PC hat etwa 1 Milliarde Transistorfunktionen (das Wort umschreibt das man auch nicht schaltende Elemente wie Widerstände als Transistoren realisiert). Ein Arbeitsspeicher mit 16 GByte Größe speichert aber 131 Milliarden Bits und aus Transistoren aufgebaut braucht man dafür 524 Milliarden Transistoren. Der Speicher in der Technologie von Prozessoren wäre sehr teuer. Trotzdem verwendeten die ersten Computer die Schaltelemente als Speicher.
Ultraschallspeicher
Der erste Speicher in einer anderen Technologie war der Speicher auf Basis von Ultraschall. Er verwendete Vakuumröhren die mit Quecksilber gefüllt waren. Sie stammten von Radargeräten und wurden genutzt, um statische Objekte aus dem Signal herauszufiltern. Ein Bit wurde als Welle in dem Quecksilber gespeichert. Kam es an am anderen Ende an so erzeugte es durch einen piezoelektrischen Schalter einen Impuls, der vorne wieder eingespeist wurde und zugleich zum Auslesen diente. Das dickflüssige Quecksilber ermöglichte das Speichern vieler Bits in vielen kleinen Wellen pro Röhre, beim ersten Einsatz bei der EDVAC waren es 560 Bits pro Röhre.
Trommelspeicher
Die Speicherung in großen Vakuumröhren war nur eine kurzlebige Technologie, denn druch das Prinzip war das langsam und die Bauteile waren voluminös und Quecksilber ist zudem giftig. Sehr bald kam man auf die Idee die Information magnetisch zu speichern. Eine weitere kurzlebige Technologie war der Trommelspeicher. Er funktioniert ähnlich wie eine moderne Festplatte war aber als Arbeitsspeicher gedacht und die Oberfläche war die Außenseite eines Zylinders. Auf ihr gab es Schreib-/Leseköpfe, pro Spur einen. Die Trommel rotierte rasch und so konnte nach spätestens einer Umdrehung auf ein Bit zugegriffen werden, gab es mehrere Sektoren mit Schreib-/Leseköpfen dann auch in einer halben oder Viertelumdrehung.
IBM nutzte die Technologie besonders geschickt aus, indem sie die Adressen nicht linear aneinander hängten sondern so platzierten das nach der Ausführung einer Instruktion gerade die nächste Adresse am Schreib-/Lesekopf vorbeizog. Eine andere Optimierungstechnik war, dass man in die Instruktion die nächste Adresse zum Lesen einbettete. Auch so konnte man eine Rotation die Zeit kostete vermeiden.
Trommelspeicher konnten bis über 100 KByte pro Trommel speichern, was in den fünfziger und frühen sechziger Jahren durchaus eine große Speichermenge war. Trotz ihres Gewichtes setzte auch der Bordrechner der Titan II ICBM einen Trommelspeicher ein.
Ringkernspeicher
Die bisherigen Speicher waren relativ langsam. Die Mechanik oder die Gesetze des Schalls limitierten die Geschwindigkeit. Ringkernspeicher speicherte die Information magnetisch und war damit viel schneller auslesbar. Ringkernspeicher basierte auf kleinen Ferritringen, die auf einer Matrix ausgehängt waren. Sie können magnetisiert werden wobei das Magnetfeld zwei mögliche Ausrichtungen haben kann. Für das Schreiben schickte man in die beiden Drähte, auf denen sich ein Kern aufhängt befand, einen Impuls und nur beim Kern addierte sich die Stromstärke so, dass er zum Umkippen des Magnetfeldes ausreichte. Zum Auslesen maß man die Veränderungen eines Stroms in einem dritten Lesedraht.
Ringkernspeicher waren über ein Jahrzehnt, bis in die frühen Siebziger Jahre der bevorzugte Speicher. Die Kerne waren viel kleiner als die vorher eingesetzten Technologien und man entwickelte auch Techniken um das aufwendige Auffädeln per Hand zu automatisieren. Sie verloren anders als heutiger Speicher nicht die Information, wenn der Strom abgeschaltet wurde.
Halbleiterspeicher
Obwohl die integrierte Schaltung schon bald nach dem Ringlernspeicher erfunden wurde, dauerte es bis in die Siebziger Jahre bis sie sie ersetzte. Lange Zeit waren Speicher in integrierten Schaltungen aus Flip-Flops aufgebaut, eine Schaltung aus vier Transistoren, bei der ein gespeichertes Bit dauernd zum Umkippen vom einem in einen anderen Zustand führte. Vier Transistoren um ein Bit zu speichern begrenzt die Datenmenge und die Fertigung war aufwendig.
Der Speicher wurde entscheidend billiger durch die Erfindung des DRAM. Dabei wird eine Zone im Silizium besonders stark dotiert, kann also sehr viele Ladungen aufnehmen. Ein Transistor neben (oder heute auf ihr) verhindert, dass die Ladung nach außen gelangt. Der Aufbau ist so viel einfacher und als beide Technologien noch marktgängig waren kostet DRAM so auch nur ein Viertel dessen, was ein Speicher auf Basis von Flip-Flops kostete. Den Namen DRAM dynamisches RAM) hat der Speicher, weil diese dotierte Zone langsam ihre Ladung verliert und so mehrere Tausend Mal pro Sekunde aufgefrischt werden muss.
Massenspeicher
Neben dem Arbeitsspeicher braucht jeder Computer auch einen Massenspeicher. Er muss viel mehr Daten speichern, sollte möglichst billig sein, dafür muss er nicht so schnell sein, weil der Arbeitsspeicher als Puffer dienen kann.
Lochstreifen und Lochkarte
Schon vor der Erfindung des Computers wurde Information verarbeitet durch Lochkartenmaschinen. So konnten Dinge gezählt, sortiert oder Submengen erstellt werden. IBM hatte die Technologie über Jahrzehnte weiter entwickelt und ihre ersten Computer setzten denn auch Lochkarten ein und waren so kompatibel zu den Maschinen, die sie schon im Portfolio hatten. Bei eiern Lochkarte wurde meist eine Zeile oben im Klartext mit einer Schreibmaschine gedruckt und unten in weiteren Zeilen je eine für ein Bit durch Löcher kodiert. Beim Einlesen wanderten sie durch eine Metallstift-Zeile und wo ein Loch war, konnte ein Kontakt zustande kommen. Lochkarten wurde vor allem als Eingabemedium genutzt, denn zum Stanzen brauchte man keinen Computer. Eine Variante, die ohne Karten auskam, war der Lochstreifenleser, wo die Information auf einem Papierstreifen (hier ohne Klartext) gespeichert wurde. Nach dem Prinzip arbeitete schon Zuses erster Computer, er benutzte als Medium alte Kinofilme, die er mit einem Bürolocher bearbeitete. Ein Lochstreifen mit einer frühen Version des Altair BASIC der bei einer Vorführung „ausgeliehen“ und auf dem Unicomputer vervielfältigt wurde, führte dazu, dass Bill Gates einen offenen Brief schrieb, in dem er sich gegen Raubkopierer wandte. Ich glaube, der Vorfall hat das Geschäftsgebaren von Bill Gates und Microsoft nachhaltig geprägt.
Magnetbänder
Auch das zweite wichtige Medium war älter als der Computer – Magnetbänder gab es schon vorher zur Aufzeichnung von Tönen, Musik oder Sprache. Ein an einem Schreib-/Lesekopf abgelegtes elektrisches Feld magnetisierte das darunter vorbeiziehende Band und zum Auslesen verstärkte man das durch das Magnetfeld beeinflusste elektrische Feld.
Magnetbänder boten viele Vorteile. Man konnte auf ihnen sehr viel Information speichern. Auf eine Rolle konnte man leicht 100 m Band unterbringen. Die Bänder waren billig zu fertigen und auch die Schreib-/Lesegeräte waren kostengünstig. Sie wurden auch in der Raumfahrt eingesetzt, ohne sie hätte es von vielen Raumsonden kaum Bilder gegeben. Vikings Bordcomputer hatte z.B. eine Speicherkapazität von 72 Kbit, das Magnetband zum Speichern der Bilder dagegen 640 MBit, also die 9.000-Fache Kapazität (das wäre wie, wenn heute ein Rechner mit 16 Gbyte Arbeitsspeicher eine Festplatte mit 142 TByte Kapazität hätte).
Rechner hatten über Jahrzehnte nicht nur eines, sondern mehrere Magnetbandlaufwerke, weil Magnetbänder auch einen sehr großen Nachteil haben – man kann auf die Information nur sequentiell zugreifen. Liest man sie nicht linear aus, so muss man lange warten bis an die richtige Stelle gespult ist. So gab es meist mehrere Magnetbänder. Eines für die Betriebssystemostware, eines wo eingelesen und eines auf das geschrieben wurde. Ein Teil der Operateure von Großrechnern hatte nur die Aufgabe, die Bänder zu wechseln.
Magnetbänder – und zwar handelsübliche Kompaktkassetten – waren auch bei den frühen Heimcomputern die bevorzugten Speicher, denn während die Rechner rasch billiger wurden blieb der Preis für Diskettenlaufwerke als adäquates Medium relativ hoch. Die Methode zum Speichern war relativ einfach. Über die Verbindung zu einem normalen Kassettenrekorder (einige Hersteller verkauften spezielle „datacorder“, die aber auch nur einfache Kassettenrekorder waren) wurde nur die Lautstärke zwischen keinem und einem Maximalpegel verändert. Ein 1-Bit hielt die Lautstärke für eine bestimmte Zeit hoch, bei einem Null-Bit war die Zeitdauer eine andere, meist kürzer. Die Pause dazwischen war nötig um die Bits zu trennen. Beim Einlesen stoppte der Prozessor einfach die Zeit zwischen den Lautstärkeveränderungen. Von der Möglichkeit mehrere Bits zu speichern, indem man die Lautstärke variabel änderte, machte man keinen Gebrauch, so war die Datenrate gering. Die ersten Exemplare speicherten mit 300 baud (Bits pro Sekunde), später stieg das an. Mein Rechner CPC 464 war einer der letzten Computer, der noch Kassetten nutzte und er bot 1000 / 2000 Baud, die man aber per Patch auf bis zu 3900 Baud erhöhen konnte.
Magnetbänder als Medium wie bei den Großrechnern nutzte nur Sinclair mit den Microdrives. Da diese Kassetten jedoch sehr teuer waren, konnte sich das trotz der hohen Lese- und Schreibgeschwindigkeit nicht durchsetzen.
Festplatten
Die Idee, die Information magnetisch auf einer Platte zu speichern, anstatt auf der Trommel eines Zylinders liegt nahe und so gab es sehr bald auch Plattenlaufwerke für Großcomputer. Diese haben mit unseren heutigen Festplatten aber nichts zu tun. Vielmehr enthielt ein Plattenstapel gleich die Schreib-/Leseköpfe (je einer pro Plattenoberfläche) und dieser Stapel wurde komplett in das eigentliche Laufwerk versenkt und konnte durch einen neuen ausgewechselt werden. Es war also ein wechselbarer Speicher.
Eine Renaissance dieses Prinzips kam dann noch mit den Heimcomputern in Gestalt der Floppy Disks. Nur war es hier nur eine Platte – Diskette genannt – und der Schreib-/Lesekopf war ins Laufwerk verbannt worden. So konnte man die Disk sehr preiswert herstellen. Ursprünglich als Medium für Betriebssystemupdates von IBM erfunden, war sie das Medium für viele frühe PCs, weil die Technik sehr preiswert war.
Beide Technologien von Wechselplatten bzw. Disketten teilen eines: Das Medium ist den Umgebungseinflüssen ausgesetzt. Schreibleseköpfe müssen so einen gewissen Abstand von der Oberfläche halten, sonst wäre Staub ein Hindernis. Ebenso ist aus demselben Grund die Rotationsgeschwindigkeit begrenzt.
IBM kam auf die Idee, einen Stapel mit Schreib-/Leseköpfen in ein luftdicht verschlossenes Gehäuse zu packen. So kann kein Staub eindringen und die Schreib-/Leseköpfe können viel näher an die Oberfläche kommen. Dadurch steigt die Schreibdichte an, weil die Spuren enger zusammenrücken und sie können schneller rotieren, weil eine Kollision mit Hindernissen ausgeschlossen ist. Später wurden die Köpfe sogar so konstruiert das sie alleine durch den Auftrieb durch die sich bewegende Luft einen konstanten Abstand zur Oberfläche hielten.
IBM führte die Festplatten als „Winchester“ Drive 1973 ein. Ältere Computerfreaks werden sich an den Namen „Winchester“ noch erinnern, denn er wurde noch Anfang der Achtziger Jahre synonym mit „Festplatte“ benutzt. Von allen vorgestellten Technologien haben Festplatten den größten Preisverfall und die größte Kapazitätssteigerung (bis vor einigen Jahren so etwa ab erreichen der 4 TByte Grenze die Größe langsamer anstieg) erfahren. Für den IBM PC war eine Zusatzeinheit mit einer 10 MByte Platte erhältlich. Sie kostete genau-soviel wie der PC mit 256 KByte Speicher selbst (etwa 10.000 DM). Übertragen auf heute würde das bedeuten, dass eine Festplatte mit lediglich 0,64 TByte Speicher genau soviel kosten würde wie der restliche PC mit 16 Gbyte Speicher.
Flash-ROM
Heute sind Festplatten bei Privatpersonen schon wieder am Aussterben. Smartphones und viele andere Geräte kommen ohne wechselbaren Massenspeicher und selbst bei Notebooks und PC ist heute eine SSD anstatt einer Festplatte eingebaut.
Während andere Technologien sich sehr rasch durchsetzten war der Vorgänger von heutigem Flash-Speicher lange Zeit nur eine Nischenlösung. Der Vorgänger von heutigem Flash Speicher war das EPROM, das Elektrisch programmierbare Read Only Memory. Es war eine Zufallsentdeckung bei Intel. Man fand das in der Fertigung defekte Transistoren bei denen sich die schaltende Schicht, das Gate von der Basis gelöst hatte (Floating Gate) und nun die Ladung behielt, die sonst normalerweise nach Ablegen der Spannung abfließen würde. Intel erkannte, dass dies die Grundlage für ein neues Produkt war: So konnte man ein Bit dauerhaft speichern. RAM-Speicher verlor, seine Information, wenn der Strom wegfiel (anders als bei dem älteren Ringkernspeicher). Es gab schon damals ROM Speicher, irgendwie musste ja das Betriebssystem oder zumindest der Bootlader um es von einem Massenspeicher zu laden, abgelegt werden. Das war im Prinzip eine Matrix aus Transistoren. Bei ihnen wurde nur entweder schon bei der Herstellung (ROM) oder später – einmalig, nicht wiederholbar – Leitungen durchtrennt, sodass bestimmte Transistoren, die ein Bit speicherten, nicht mehr leiteten (PROM). Eine solche Transistormatrix ist sehr einfach herauszustellen, noch einfacher aufgebaut als DRAM und das war sehr billig.
EPROM blieben ein Nischenprodukt für Softwaretests oder Heimprogrammierer. Man konnte sie auch nicht im Programmiergerät löschen (da musste vor dem erneuten Programmieren immer erfolgen), sondern benötigte dazu eine UV-Lampe. Das dazu nötige Quarzglasfenster über dem Chip machte EPROMs auch teuer. In den Achtziger kostete ein EPROM doppelt so viel wie ein DRAM mit derselben Kapazität.
Etwas besser wurde das mit dem EEPROM die man elektrisch löschen konnte und so nicht mehr aus dem Computer für das Neuprogrammieren entfernen musste, auch weil die Programmierspannung abgesenkt wurde.
Auf der Technologie von EEPROM basiert der heutige Flash Speicher. Ein Hindernis der EEPROM/EPROM war, das man jedes Bit einzeln neu programmieren musste. Das Neuprogrammieren eines EPROM/EEPROMs dauerte so. Das war akzeptabel, wenn es sich um wenig ändernde Information handelte. Aber als Massenspeicher, bei dem dauernd Dateien geändert werden, war diese Technologie nicht geeignet. Der Unterschied von Flash-Speichern zu ihren Vorgängern ist, dass nicht ein einzelnes Bit, sondern immer ein ganzer Block, der viele KByte groß sein kann, neu geschrieben wird und dies nicht länger dauert als vorher die Neuprogrammierung eines Bits.
Flash Speicher erfuhr eine enorme Kapazitätssteigerung. Heute bestehen die Bausteine nicht aus einer einzelnen Lage, sondern bis zu 192. In einem Transistor werden heute bis zu vier Bit gespeichert, wobei die Elektronik anhand der Signalstärke feststellen muss, welche Bitfolge gelesen wird. Leider hat dadurch auch die Anzahl der Schreibzyklen von 100.000c bei einem Bit pro Transistor auf unter 1000 bei vier Bits abgenommen.
Ich habe meinen ersten USB-Speicherstick 2002 gekauft. Damals bezahlte ich 42 Euro für 0,125 GByte. Gerade habe ich neue Sticks geordert – für 6 Euro für 64 GByte. In 22 Jahren ist also der Preis pro Gbyte um den Faktor 3.500 gesunken. Ähnlich erging es SSD. Meine erste SSD kaufte ich 2012: 0,25 GByte für 212 Euro, meine letzte kostete 54 Euro für 1 TByte, auch hier sank der Preis in 12 Jahren um den Faktor 54.
Rätselauflösung
Nun was meint ihr, was ist die wichtigste dieser Entwicklungen? Also meiner Meinung nach sind es zwei Erfindungen, die konkurrieren. Das eine ist der Mikroprozessor. Mit ihm wurden Computer ein Massenprodukt., Es gab schon seit den Jahrzehnten vorher Computer aber sie waren immer zu teuer für eine Privatperson und meist auch nicht sinnvoll. Mit dem Mikroprozessor kamen die PC auf, später zog er in Form die Mikrocontrollers – mit integrierten Schnittstellen, RAM und ROM – in zahlreiche Geräte ein, von der Waschmaschine bis zum Fitness-Tracker. Heute steckt er in vielen Geräten in denen man ihn nicht vermutet. Mit dem Massenmrakt sanken auch die Preise – für einen kompletten PC mit Monitor und Drucker musste man Anfang der Achtziger Jahre etwa 7.000 DM, das entspricht heute demselben Betrag in Euro hin blechen, heute gibt es das schon für ein Zehntel des Preises.
Die Schwemme von Geräten die Mikroprozessoren einsetzen, verdanken wir einer zweiten Erfindung, dem Flash-ROM. Die Entwicklung vieler Geräte wäre wohl wesentlich aufwendiger und es würde (vielleicht nicht mal eine schlechte Option) weniger davon geben, wenn die Programmierung des Betriebssystems bzw. sein Update/Fehlerbeseitigung nicht so einfach in einem Flashspeicher ginge. Ich denke, beide Erfindungen sind wichtig, ohne Prozessor ginge es aber nicht, ohne Flash-Speicher eroberte der PC aber schon die Heime.
Lochstreifen wurden schon bevor es Computer gab in Fernschreibern eingesetzt. Deshalb waren Fernschreiber später auch bei Kleinrechnern als Ein- Ausgabegerät verbreitet.
Noch etwas kurioses am Rand: Es wurde behauptet, Festplatten wurden Winchester genannt weil sie zum Zerschießen von Daten gedacht sind.
zu Flash: das war eigendlich wichtiger für den high end embedded Markt, als für PCs und Server. Das Betriebssystem konnte man immer schon gut erst von Disketten, dann von der Festplatte laden. Für einen klassischen Bootloader hat ein ggf. wechselbares Boot ROM ausgereicht. (BIOS Updates waren lange unüblich.) Der Atari ST (und möglicherweise der Amiga) waren die ersten Computer mit dem Betriebssystem im ROM, die ich gesehen habe.