Wechselplatten und Festkörperspeicher

Deutlich später als Festplatten wurden Wechselplatten eingeführt. Festplatten waren damals schon im Einsatz, doch waren pro Laufwerk, dass so groß wie ein Kühlschrank war nur eine Platte möglich. 1965 führte IBM das IBM 2310 Wechselplattenlaufwerk ein. Es bestand aus einem Laufwerk mit dem Spindelmotor und den Schreib/Leseköpfen in der Mitte und einem Cartridge mit den Wechselplatten. Dieser bestand aus einer schützenden Plastikumhüllung mit einem Transportgriff in der Mitte und einem Plattenstapel mit einem Loch für den Motor, Der Stapel wurde zuerst aus der Basis entnommen und der Boden abgenommen, dann mit der Hülle in das Laufwerk eingesetzt, gedreht um es zu fixieren, wobei sich gleichzeitig die Befestigung der Schutzhülle löste. Danach konnte diese abgenommen werden und die Schutzverkleidung des Laufwerks geschlossen werden wodurch die Schreib/Leseköpfe aus ihrer Parkposition freigegeben wurden.

200 MB WechselplatteSo war die Entkopplung von teurem Laufwerk und preiswerten Magnetplatten möglich, allerdings war die Datendichte deutlich geringer, denn es war nun das Medium nicht mehr hermetisch von der Umgebung abgeschottet. Die Platten konnten trotz Umhüllung von Staub in der Funktion beeinträchtigt werden. Dadurch muss der Schreib/Lesekopf einen größeren Abstand von der Oberfläche einhalten um nicht durch Feinstaub beeinträchtigt zu werden und die Datendichte war geringer als bei Festplatten.

Die Größe eines Plattenstapels von 14 Zoll (35,6 cm) wurde bald zum Industriestandard. Anders als die Floppydisks waren Wechselplatten starre Medien und es waren meisten ganze Stapel mit bis zu 12 Platten.

Wechselplatten warn in den siebziger bis achtziger Jahren im weiten Einsatz bei Großrechnern. Sie wurden schließlich durch Festplatten, die zu Speichersubsystemen zusammengefasst wurden abgelöst. Bedingt durch die nicht hermetisch abschottbare Umgebung war ihre Speicherkapazität schließlich kaum noch zu steigern.

IM PC-Bereich eingeführte Wechselplatten waren dagegen in der Regel besondere Festplatten, die man während des Betriebs wechseln konnte, aber ein komplettes Laufwerk. Frühe Konstruktionen wie das Tandom DataPAC sparten den Laufwerkscontroller ein und waren so billiger als eine zweite Festplatte. Da später die Elektronik auf dem Motherboard integriert wurde, fiel aber auch dieser kleine Preisvorteil weg. Des weiteren sind heutige Steckersysteme (eSATA) nicht für das häufige Wechseln ausgelegt. Die mit USB angekoppelten Festplatten sind aber her als externe Laufwerke, denn als Wechselplatten anzusehen.

Alle bisherigen Massenspeicher setzten ein mechanisch bewegte Medium ein, also rotierende Scheiben, Bänder oder Karten. Es fehlte nicht an Versuchen den Massenspeicher wie den Arbeitsspeicher aus Komponenten zu konstruieren, die keine beweglichen Teile haben. Dafür hat sich der Ausdruck „Solid State“ eingebürgert, der heute auch in den Solid State Disks (SSD) verwendet wird.

Der erste Versuch war der Magnetblasenspeicher, der in den sechziger Jahren entwickelt wurde und der in den siebziger Jahren sehr populär war. Es handelte sich um eine Oberfläche aus dem Mineral Granat. Die wurde wurde so behandelt dass es auf der Oberfläche viele Zonen mit schwachen Magnetfeldern gab. An einem Ende der Fläche gab es viele kleine Elektromagneten, die durch ihren Strom eine Magnetblase erzeugten, die dann durch den Stromfluss von einer Feldregion als „Blase“ zum nächsten magnetisierten Bereich wanderte und am Ende von einem Detektor als Magnetisierung ausgelesen wurde. Vom physikalischen Prinzip her handelte es sich um die unbewegliche Version eines Trommelspeichers. Er ist, wie alle magnetischen Speicher, ein nichtflüchtiger Speicher.

In den siebziger Jahren meinte man, damit einen sehr guten Massenspeicher gefunden zu haben. Magnetblasensepicehr war robust, Module kompakt und der Aufbau verglichen mit Halbelitern sehr einfach. Intel brachte z.B. 1981 das Intel 7110 Bubble Memory Module heraus. Es fasste 1 MBit und hatte eine Datenübertragungsrate von 100 kbit/s. Gemessen an den Größen von Speicherchips (damals maximal 64 Kbit) war die Kapazität enorm, leider nicht gemessen an Festplatten. Man hätte 80 dieser Module benötigt, um eine damals übliche 10 MByte Platte zu ersetzen. Der Vorteil des Magnetblasenspeichers war seine niedrige Zugriffszeit von nur 500 Mikrosekunden. Der Nachteil war, dass man ihn nur seriell auslesen konnte. Die Datenübertragungsrate war daher sehr niedrig. 100 kbit/s waren nur etwa 12 kbyte/s, also weniger als die Datenübertragungsrate eine schnellen Diskettenlaufwerks.

Für viele Rechner als „Massenspeicher“ wichtig waren dagegen die Anfangs der siebziger Jahre erfundenen EPROMs. Sie waren nur in einem Programmiergerät programmierbar und mussten zum Löschen mit UV-Licht bestrahlt werden. Aber sie ermöglichten es ein Programm dauerhaft abzulegen. Viele Firmen die Zubehörgeräte oder Spiele für Heimcomputer produzierten, legten diese auf EPROMs oder deren Nachfolgern den EEPROMs (Electric Erasable PROMS) ab. Fast jeder Heimcomputer hatte einen Modulschacht in denen man solche Module zur Erweiterung einschieben konnte. Gemessen an der Verbreitung war es der populärste Speicher in den frühen Achtziger Jahren, auch wenn der Privatanwender selbst keine ROMS erstellte. Mit dem Siegeszug der IBM-PC Linie, die als einziges ROM das BIOS hatte, und das ganze Betriebssystem von Diskette oder Festplatte luden, anstatt das es in ROM-Chips steckte, schien diese Ära beendet.

Das änderte sich als aus den EEPROMS die Flash-ROMS, heute eher als FLASH-RAMs bekannt, entwickelt wurden. EPROMS waren nur durch UV-Licht löschbar. EEPROMS auch durch Strom, aber beide brauchten eine höhere Programmierspannung als die spätere Lesespannung. Flash-ROMS haben diesen Nachteil nicht, können aber nur in großen Blöcken (typisch 512 Kbyte) neu beschrieben werden. Dafür ist Datenübertragungsrate beim Schreiben größer. EEPROMs und EPROMS sind Speicher die für permanente Programme ausgelegt waren, also langsam beschrieben wurden, weil dies nicht so oft erfolgte. Flash-Speicher erlaubten es erstmals Daten permanent auf relativ kleinen Medien abzulegen. Sie wurden zuerst daher in Speicherkarten für Kameras (SD, CF-Karten) eingesetzt, dann folgten USB Sticks und mit den sinkenden Preisen werden sie nun auch im PC Bereich eingesetzt. Zwar ist Ende 2012 ein SSD-Laufwerk pro GByte noch zwanzigmal teurer als eine Festplatte, doch die Kapazität ist ausreichend für Betriebssystem und die wichtigsten Daten, wenn auch nicht die gesamte Video und MP3-Sammlung. Daher werden zunehmend SSD als Bootlaufwerke genutzt, während man für große Datenbestände eine Festplatte parallel nutzt. Man profitiert vor allem von schnelleren Reaktionszeiten, also der Zeit nach der man mit Windows wirklich arbeiten kann oder der Zeit die vergeht wenn eine Anwendung gestartet wird, bis sie auch genutzt werden kann. Bei sequentiellen Schreib/Leseoperationen ist der Vorteil gegenüber Festplatten dagegen nicht so stark ausgeprägt.

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.