Home Computer Computer Geschichte Site Map counter

Massenspeicher

 Neben dem Arbeitsspeicher benötigten und benötigen Computer immer auch einen Massenspeicher, also einen Datenspeicher auf dem Programme und Daten dauerhaft abgelegt werden konnten. Programme werden im Arbeitsspeicher ausgeführt, aber sie lagern im Massenspeicher und werden von diesem in den Arbeitsspeicher übertragen.

Wesentliche Kriterien für Massenspeicher sind:

Wie groß ist die Kapazität? Natürlich ist hier ein Speicher besser der eine hohe Kapazität hat. Doch so einfach ist die Sache nicht. Es gibt nämlich auch noch eine weitere Unterscheidung und und zwar die in festen und wechselbaren Massenspeicher. Ein wechselbarer Speicher besteht aus einem Laufwerk und einem auswechselbaren Datenträger. Ein fester Speicher hat den Nachteil, dass der Datenträger nicht ausgewechselt werden kann. Beim PC ist z.B. ein DVD-Brenner ein Massenspeicher mit wechselbarem Datenträger und die Festplatte ein Datenspeicher der nicht wechselbar ist. Den Nachteil kompensieren feste Datenspeicher oft dass ohne Umgebungseinflüsse (Staub, Verformungen des Datenträgers) die Datenrate höher ist und man mehr Daten speichern kann. Andere Beispiele für wechselbare Massenspeicher sind Magnetbänder, Papierstreifen, Floppy-Disks, Wechselplatten oder USB-Sticks / Speicherkarten. Feste Speicher sind neben Festplattenlaufwerken, Magnetblasenspeicher oder Trommelspeicher. Heute auch Solid State Disks.

Ein weiterer Punkt ist auch die Datenrate, also wie schnell der Datenträger Daten liefert. Sie wird in Megabit, Kilobit oder Gigabit/Sekunde angegeben. Auch hier gilt: je höher desto besser. Systeme die viel Mechanik beinhalten haben oft niedrigere Datenraten als Systeme die auf der Nutzung von Magnetfeldern oder elektrischen Ladungen beruhen.

Der dritte Punkt ist die mittlere Zugriffszeit, das heißt, wie schnell kann man auf einen Datenbereich zugreifen. Es gibt hier enorme Unterschiede. Rotierende Magnetplatten haben mittlere Zugriffszeiten von 10-80 ms, Bandlaufwerke mit Magnetbändern dagegen Zugriffszeiten von mehreren Sekunden, bis zu Minuten. Klar ist, dass ein Massenspeicher mit langen Zugriffszeiten nicht genutzt wird, wenn man laufend auf Daten zugreifen muss, sondern eher für Archivierungsaufgaben.

Anders als bei der Technik der Computer, den Prozessoren oder dem Arbeitsspeicher, mussten nicht die Massenspeicher entwickelt werden. Schon vor den ersten Computern die in den vierziger Jahren des letzten Jahrhunderts entstanden, musste die Menschheit Daten speichern und hatte dafür Technologien erarbeitet, nur waren die meisten davon analog.

Eine letzte Unterscheidung kann danach erfolgen ob die Information (einfach) wiederbeschreibbar ist oder nicht. So können magnetisch gespeicherte Informationen oft durch Entmagnetisieren einfach überschrieben werden. Wird dagegen wie bei Lochkarten ein Loch gestanzt, so kann dieses nicht wieder in den Ursprungszustand gebracht werden. Auch EPROM's waren ursprünglich nicht einfach löschbar.

Diese Kriterien sind gegeneinander abzuwägen. So kann wenn man auf große Daten nur selten zugreifen muss ein langsamer, aber preiswerter Speicher wie das Magnetband durchaus besser geeignet als eine Festplatte sein und für einen Heimcomputer mit einem kleinen Betriebssystem und einem BASIC Interpreter ist ein 16-32 KByte großes EPROM trotz der hohen Kosten vielleicht eine bessere Lösung als ein Diskettenlaufwerk, welches das System von der Diskette lädt, obwohl eine einzelne Diskette pro Bit viel billiger ist (dafür aber das Laufwerk viel teurer).

Lochkarte und Lochstreifen

LochkarteDie ersten Rechner setzten das Prinzip der Lochkarte und des Lochstreifens ein. Erfunden wurde die Lochkarte im Jahre 1889 von Hermann Hollerith, einem Kind deutscher Einwanderer, erfunden. Hollerith war im amerikanischen Volkszählungsbüro angestellt und sah die Probleme die es gab: Gesetzlich verpflichtet musste die Behörde alle zehn Jahre eine Volkszählung durchführen und die Bevölkerung nach Merkmalen erfassen. Das dauerte nach 1880 so lange, dass man vorhersagte, dass wegen der rapide ansteigenden Bevölkerung durch Einwanderer, es 1890 länger als 10 Jahre dauern würde die Daten auszuwerten. Die neuen Daten wären also erst verfügbar, wenn man schon die nächste Volkszählung angehen müsste.

Hollerith hatte sich das Prinzip des Jaquard-Webstuhls angeschaut. Bei diesem steuerte ein Papiermuster den Webstuhl. Löcher bestimmten wo jeweils ein Schussfaden gesetzt wurde und wo nicht. Damit konnten Webstühle nicht nur einfarbige Tücher weben, sondern auch beliebige Muster. Die Erfindung dessen bewirkte, dass es möglich war noch mehr die Weberei zu automatisieren, was in vielen Ländern zu "Weberaufständen" führte, so in England und Preußen. Auf einem ähnlichen Prinzip beruhen auch die Drehorgeln.

Das Prinzip der Lochkarte ist sehr einfach. Es ist eine Karte aus Karton, bei der ein Merkmal an einer bestimmten Stelle, bezeichnen wir sie mal als Zelle, durch Löcher kodiert ist. Bei den ersten Lochkarten war es so, dass ein Merkmal wirklich für ein Loch stand, also z.B. Geschlecht: Loch = männlich, kein Loch = weiblich. So wurde ein Bit kodiert. Die Karte bestand aus einer Anzahl von Spalten und einer Anzahl von Zeilen. Multiplizierte man die Spalten mit den Zeilen, die Daten enthielten, (oft gab es noch andere für Verarbeitungsinformationen) so erhielt man die Speicherkapazität einer Karte. Gab es mehrere Auswahlmöglichkeiten für ein Merkmal, so wurden bei den ersten Karten mehrere Zellen in denen ein Loch stehen konnte, zusammengefasst. Beim Alter konnte ein Loch in der dritten von 10 Zellen z.B. für ein Lebensalter von 30 bis 39 stehen. In den anderen Spalten dürfte dann kein Loch vorhanden sein.

Als die Lochkarten für Computer genutzt wurden, ging man zur digitalen Speicherung über, speicherte also in 8 Zellen ein Byte. Je nach Kodierung konnten 8 Löcher dann entweder für den Wert 0 oder 255 (28-1) stehen.

Das Lesen erfolgte dann mit einer Lesevorrichtung. Sie tastete die Lochkarte ab, bemerkte dabei ein Loch. Das konnte über verschiedene Verfahren geschehen, mechanisch, pneumatisch, später vor allem aber elektrisch waren üblich. So konnte eine Nadel unter Strom stehen und beim durchlaufen der Karte einen Kontakt mit der Metallunterlage herstellen, wodurch ein Strom floss, oder eben nicht. Die ersten Tabelliermaschinen konnten die Karten nur zählen. Immerhin konnte aber das Volkszählungsbüro so in drei Monaten mit 43 Maschinen alle Daten auswerten. Später konnte man mit Lochkarten Berechnungen durchführen bevor es Computer gab. Ähnlich wie Registrierkassen verfügten sie über mechanische Addier- und Subtrahierwerke. Nun begann man auch von der direkten Kodierung abzuweichen und wechselte auf ein digitales Schema.

PapierstreifenLochkarten konnte man zusammenfassen, indem man z.B. durch einen Kontakt alle Karten mit einem gemeinsamen Merkmal durch Umlenkung des Laufwegs in einem gemeinsamen Behälter sammelte und diese Submenge der Daten dann weiter auswerten. Hollerith gründete 1896 seine "Tabulating Machine Company". Sie fusionierte später mit einer anderen Firma und wurde 1924 zur International Business Machines Corporation (IBM) umbenannt.

Als die Computer erfunden wurden betrieb man mit Lochkarten Buchhaltung, es konnten Lochkarten maschinell gestanzt werden.Allerdings waren alle Tabelliermaschinen festprogrammiert. Die Programmierung erfolgte durch das Neuverkabeln der Kontakte zu den Funktionseinheiten.

 Etwas später gab auch den Lochstreifen, der im Handling einfacher war, da er leichter transportiert werden konnte als die Lochkarten. Zur Synchronisation (wo man ablesen musste) gab es einen Bereich mit Löchern. Bei obigen Streifen ist es die durchgehende vierte Reihe von Oben mit kleineren Löchern. Auch bei obigen Lochstreifen sieht man die Speicherung von 8 Bits in einer Spalte.

Folgerichtig waren Lochstreifen und Lochkarten die ersten Medien um Daten zu speichern und zu lesen. Für den Computer besser geeignet war der Lochstreifen. Konrad Zuse stellte selbst aus alten Kinofilmen mit einem Bürolocher Lochstreifen her. Er konnte auch leichter maschinell gestanzt werden womit es einfacher war Daten zu speichern. Im Bild links quellen die Lochstreifen aus den Geräten hinaus. Es stammt aus einer Flugüberwachungszentrale Mitte der fünfziger Jahre. Auch ging der erste kommerziell hergestellte Computer wieder an das Volkszählungsbüro. Besonders IBM, die schon seit 50 Jahren Tabelliermaschinen verkauften, wollte nicht von der Technologie des Lochstreifens bzw. der Lochkarte lassen. Ihr erster Rechner, die IBM 604 war ein Hybridrechner zwischen Tabelliermaschine und elektronischem Rechner. Das Rechenwerk funktionierte mit Vakuumröhren, doch die gesamte Programmierung erfolgte mit Lochkarten. Erst danach entwickelte die Firma rein elektronische Rechner. Als Ein/Ausgabemedium blieben die Karten und der Lochstreifen aber weiterhin in Gebrauch.

Später waren Lochkarten noch weit verbreitet um "Offline" Programme zu schreiben. Aufgrund der englischen Bezeichnung "Batch" für einen Kartenstapel bürgerte sich auch bald die Bezeichnung "Batch-Job" für den Betrieb eines Rechners ein, der nacheinander Kartenstapel verschiedener Nutzer abarbeitet, die Ergebnisse ausdruckt und dann den nächsten Stapel angeht.

Lochstreifen bei der Flugüberwachung 1964Der Vorteil der Lochkarte war ihre einfache Fertigung und Robustheit. Ein Gerät das einer Schreibmaschine ähnelte, konnte eine Lochkarte mit 80 Spalten und 9 Zeilen für ein Byte und Prüf-Informationen stanzen. Auf den Rand wurde der Inhalt durch den Drucker/Schreibmaschine im Klartext wiedergegeben, sodass auch eine Person den Inhalt lesen konnte. So konnte man das Programm erstellen, ohne das man einen Zugang zum Rechner hatte.

Auch frühe Programmiersprachen wie COBOL oder FORTAN waren die Lochkarte ausgelegt, so waren Zeilen maximal 80 Zeichen lang, vorne konnten in bestimmten Spalten nur Zeilennummern oder Kommentarsymbole stehen. Die 1928 von IBM eingeführte 80-Spalten Karte wurde zu einem Industriestandard. Jede Karte hatte die Abmessung von 187,3 x 82,6 mm und war 0,18 mm dick. Sie wurden in Stapeln von 2000 Karten verkauft die dann 35,6 mm hoch waren.

In den siebziger Jahren schwand die Bedeutung der Lochkarten und der Lochstreifen. Für die Datenverarbeitung wurden schon lange andere Systeme verwendet die schneller gelesen und geschrieben werden konnten, doch hatten Lochstreifen noch eine Bedeutung um Software zu verbreiten, da das Format herstellerunabhängig war. Die erste Version von Microsoft BASIC für den Altair konnte man z.B. auf Lochstreifen erhalten. Der Lochstreifenleser war auch ein erschwingliches Medium für diesen ersten PC. Die Lochkarten hatten noch lange eine Bedeutung im universitären Umfeld, wo viele Benutzer an einen Rechner heran wollten und es so am einfachsten und preiswertesten war, dass die Benutzer offline ihre Programme schrieben und auf Karten stanzten. Die Minicomputer und frühen PC's sorgten für ein verlängertes Leben des Papierstreifens, da er immer das preiswertete Medium zum Speichern war. Bei Großcomputern erlaubten ab den siebziger Jahren Terminals einen Time-Sharing Betrieb. Dabei wurde an einer umgebauten Schreibmaschine über eine Datenleitung ein Befehl an den Computer gesandt, dessen Rechenzeit nun auf viele Benutzer aufgeteilt wurde. Später gab es auch Bildschirme wodurch Papier als Medium vollkommen überflüssig wurde.

Der Nachteil der Lochkarte und des Lochstreifens war, dass bedingt durch die mechanische Verarbeitung die Lesegeschwindigkeit sehr gering war, die Schreibgeschwindigkeit noch kleiner und das Schreiben noch aufwendiger als das Lesen war. Die Datendichte war gering, so speicherte eine Lochkarte maximal 80 Byte, selbst wenn man sie mit einer Schreibmaschine beschrieben hätte, hätte man mehr Daten ablegen können. Zudem war sie nicht wiederbeschreibbar. Ein Fehler in einer Zeile erforderte das komplette Neustanzen einer neuen Lochkarte. Schnellstanzer erreichten zwar 800 Karten pro Minute, doch da jede Karte maximal 80 Zeichen aufnahm, entsprach das nur 1067 Zeichen/Sekunde oder wenn ein Zeichen 8 Bits einnimmt 8,5 KBit/s. Ein für den Altair verfügbarer Lochstreifenleser hatte sogar nur eine Geschwindigkeit von 110 Bits/s.

Als die Ära schon weitergehend vorbei war, 1985 stieß der Autor im ersten Wintersemester, als er zur Physikvorlesung im Nachbargebäude hetzte mit einem anderen Studenten zusammen, der gerade seine Lochkarten zum Rechenzentrum in der gleichen Richtung brachte - niemals zuvor und danach habe ich jemand so fluchen hören wie jenen Studenten dessen Programm nun völlig durcheinandergemischt auf dem Boden lag....

Magnetbänder

7 Zoll BandDer Univac führte 1951 das Magnetband als Medium ein. Erfunden wurde es schon vorher. Nachdem schon 1888 die Aufzeichnung von Tonsignalen auf Stahldraht erfunden wurde, entwickelte AEG von 1935 bis 1940 das Magnetband basierend auf einem hochbeanspruchbarem Plastikband, das mit einer magnetischen Schicht meist aus Metalloxiden belegt war. Es war auf einer Rolle aufgerollt worden. Als UNIVAC das Magnetband als Datenspeicher einführte, hatte es schon die Aufzeichnung und das Mischen von Tonsignalen revolutioniert und sich in der Studio Technik durchgesetzt.

Das Prinzip der frühen Magnetbänder war sehr einfach: Eine Reihe von Schreib/Leseköpfen über die Breite des Bandes magnetisierten die darunter vorbeiziehende Oberflächenschicht, bzw. die Magnetisierung induzierte beim Auslesen einen Strom in dem Schreib/Lesekopf. Als später die Datendichte immer höher wurde, verkleinerte man die Bänder, wodurch die Abspielgeräte kompakter wurden oder wenn diese beibehalten wurden, dann deckten die Spuren nicht mehr die volle Breite ab. War man am Ende des Bandes angekommen, wurden die Köpfe weiter bewegt und nutzten dann die untere Hälfte des Bandes beim Spulen in die andere Richtung.  Dies konnte man dann auf 3,4 etc. Durchgänge erweitern.

In den Neunzigern kam dann die helicale Aufzeichnung auf, bei der eine Spur schräg über die Breite geht und viele kurze Spuren sich über die Breite erstrecken. Dies wird z.B. beim DAT (Digital Audio Tape) eingesetzt. Durch die schräge Aufzeichnung erreicht man bei relativ geringer Bandgeschwindigkeit eine hohe Datenrate.

Der De Fakto Standard bei Großrechnern war das 1952 von IBM einführte 7-Spur Band. Es hatte eine Breite von einem halben Zoll (12,7 mm). Das Band von anfangs 1200 Fuß Länge (370) m war auf einer 10,5 Zoll (26,6 cm) großen Rolle aufgewickelt. Sieben Spuren konnten ein Zeichen im 6 Bit Format (nur 64 Zeichen, Kleinbuchstaben waren nicht Bestandteil des Zeichensatzes) plus ein Paritätsbit speichern anhand dessen geprüft werden konnte, ob die Information korrekt gelesen wurde. (Bild oben links von Hannes Gröbe).

IBM 704Die Datendichte war anfangs gering und lag bei nur 200 Zeichen pro Zoll. Doch diese 5 Millionen Zeichen waren zu der damaligen Zeit enorm viel. Der IBM 701 Rechner mit dem sie eingeführt wurden, hatte dagegen einen Arbeitsspeicher von 2.000 bis 20.000 Zeichen. Der Massenspeicher war also 250 bis 2500-mal größer als der Arbeitsspeicher.

Die Bänder aus sehr beanspruchen PET-Film konnten extrem schnell gestartet und gestoppt werden. Anfangs genügten 5 ms um die Maximalgeschwindigkeit von 2,68 m/s zu erreichen, später nur noch 1,5 ms. Das Band wurde dann auf eine zweite Rolle aufgespult. Viele Spielfilme dieser Zeit zeigen Magnetbandgeräte wenn es um die "Arbeit" von Computern geht, da für das menschliche Auge die Bänder von einem Moment auf den anderen stoppen oder starten können und dies beeindruckend aussieht. Die Magnetbandgeräte selbst waren in etwa so groß wie ein kleiner Schrank oder ein mannshoher Kühlschrank. Bis zum Ende der sechziger Jahre gelang es durch höhere Schreibdichten und dünnere Bänder (ein längeres Band) die Datenmenge auf 140 Megabyte zu vergrößern. Die Geschwindigkeit eines Bandes beim Lesen betrug 1,91 m/s, beim Umspulen sogar 12,70 m. Bild links: IBM 704 Rechner des Lawrence Livermoore Laboratoriums (Copyrighthalter des Bildes). Auf der linken Seite sieht man vier Magnetbandlaufwerke.

Da das Spulen viel schneller ging entwickelte man in der Folge verschiedene Techniken, um die Zeit des langsamen Lesens nur auf den Teil zu beschränken wo auch Daten waren. Dazu gehörten Sektormarker die auch bei hoher Geschwindigkeit lesbar waren oder ein Verzeichnis am Bandstart, das in den Arbeitsspeicher eingelesen wurde. So konnte an die richtige Stelle schnell vorgespult werden.

Mit dem System 360 führte IBM Mitte der sechziger Jahre ein 9-Spur Band ein, da nun Bytes mit 8 Bits Basis des Zeichensatzes waren. Doch die Abmessungen des Bandes blieben. Die 9 Spurbänder hatten Kapazitäten von 20, 40 und 140 MByte je nach Bandlänge. Sie setzten sich industrieweit durch, auch andere Computerhersteller wie DEC setzten sie ein. Bis in die achtziger Jahre wurden diese Magnetbandgeräte eingesetzt. Ihre typische Suchzeit betrug allerdings 30 bis 60 Sekunden. Bandlaufwerke wurden auch bei Satelliten und Raumsonden eingesetzt um Daten zwischenzuspeichern, da damals es nur einen Funkkontakt beim Überfliegen einer Bodenstation gab.

QIC BandBei den PC's konnten Bandlaufwerke nie richtig Fuß fassen. In den neunziger Jahren waren die Quarter-Inch Cartridges (QIC) populär, deren Kassetten in etwa so groß wie Kompaktkassetten waren. Die Laufwerke waren so groß wie Floppy Disklaufwerke und konnten auch an den Floppy-Diskcontroller angeschlossen werden, da die gleiche Aufzeichungsweise (MFM) genutzt wurde. QIC Laufwerke gab es mit 40,80 und 125 MB Kapazität, mit Datenkompression wurden 250 MByte erreicht. (Bild Links, aufgeschnittenes QIC Band von Steffen Prößdorf)

Die Nachfolge bei Großrechnern trat das Digital Audio Tape an, dass die oben erwähnte schräge Aufzeichnung nutzt. Es ist kompakt und speichert wie das QIC die Daten auf einer kompakten Kassetten, man muss also nicht die großen und scheren Bandrollen wechseln. Heute wechseln Roboter die Cartridges aus einem Bandarchiv. In dieser Form werden Magnetbandgeräte bis heute eingesetzt. Ein Roboter holt dazu ein Cartridge und führt es in das Abspielgerät ein. Wie der Name "Archiv" andeutet, werden so Daten gelagert die man nicht dauernd benötigt. Derartige Archive unterhalten alle Unternehmen die sehr hohe Datenmengen akquirieren, wie z.B. Satellitendaten. Auch das Backup von Daten von Festplatten erfolgt heute noch auf Band. Es ist jedoch anders als früher nicht mehr der primäre Massenspeicher, sondern eine Archivlösung. Da die Cartridges sehr klein sind, können trotzdem viele Daten auf kleinem Raum gespeichert werden. Zudem ist dies bei vielen Cartridges billiger als Festplatten (die Laufwerke selbst sind deutlich teurer). Gemessen an der Kapazität haben Festplatten inzwischen die Bänder überholt. Im November 2012 speicherte LTO als leistungsfähigste Technologie 1,5 Terabyte auf einem Cartridge das mit über 100 x 100 mm deutlich größer als eine 3,5" Festplatte ist.

Eine Besonderheit ist die Zweckentfremdung von Audiocasettenrekordern bei Heimcomputern in den siebziger und achtziger Jahren. Manche Hersteller brachten auch eigene Geräte auf den Markt, die sie dann "Datasetten" oder ähnlich nannten. Die Heimcomputer hatten einen Anschluss für die Mikrofon und Lautsprecherbuchen seines Kassettenrecorders und sie speicherten Daten als Töne. Von den ganzen Fähigkeiten des Rekorders wurde meist nur ein Ton einer Frequenz genutzt und eine bestimmte Länge stand für eine "0" und eine andere für eine "1". Nach jedem Signal gab es dann Stille. Eine zweite Methode bestimmte, wenn das Signal von positiver zu negativer Spannung wechselte. Da Töne Sinuswellen sind, schwankt die Spannung zwischen einem negativen und positiven Maximalwert. Gemessen wurde dann die Zeit zwischen zwei Passagen der Nulllinie. Eine lange Zeit entsprach dann einer "1" und eine kurze Zeit einer "0". Hier wurden dann zwei Tonhöhen für die Aufzeichnung genutzt.

Der Nachteil dieser Vorgehensweise ist, dass es nur ein "Einspurgerät" ist und zudem von der Speicherkapazität nur ein Teil genutzt wird. Hierzu ein Vergleich. Selbst eine billige Audiokassette konnte Töne in einem Frequenzbereich von 100 bis 14.000 Hz speichern. Gemäß den Shannonschen Theorem muss die Abtastfrequenz doppelt so hoch sein, also bei mindestens 28 kHz liegen. Nimmt man nur 8 Bit Quantisierungstiefe pro Herz, so entspricht dies einer Datenmenge von 224 kbit/s. Telefon, bei dem nur ein Teil dieses Spektrums übertragen wird, hat wenn es bei ISDN digital übertragen wird, eine Datenrate von 64 kbit/s und CD-ROMS mit höherer Abtastrate, Stereo und besserer Digitalisierung kommt auf 1200 kbit/s.

Demgegenüber erreichten einfache Datasetten 300-600 Bit/s. Ein in meinem CPC-464 eingebauter Rekorder, der besonders abgestimmt war, erreichte 1000/2000 Bit/s. Mit einer eigens geschriebenen Firmwareroutine konnte man 3900 Bit/s erreichen, doch diese Datenrate war schon zu dieser Zeit extrem langsam. Zudem fehlten allen Geräten die Möglichkeiten des schnellen Vorspulens. Um ein Programm zu finden musste man das gesamte Band abspielen. Man musste also im Extremfall bei einer C60 Cassette bis zu 30 Minuten warten, bis ein Programm eingeladen war. Daher wurden für diese Geräte auch Cassetten mit nur 10, 20 oder 30 Minuten Dauer angeboten.

Die Versuche, Magnetbänder auch beim Heimcomputern digital einzusetzen, anstatt analoge Töne zu speichern gab es, sie waren jedoch nicht sehr erfolgreich. Die Firma Sinclair führte ein Microdrive ein. Obwohl die Bänder mit 1,9 mm Breite und 5 m Länge weniger als ein Dreißigstel der Fläche eines Bandes einer Kompaktkassette hatten, war ihre Datendichte zehnmal höher und erreichte 85 Kbyte für dieses kleine Band. Auch die Übertragungsrate von 15 Kbyte/s war um den Faktor 100 schneller. Zudem konnten bei dem kurzen Band innerhalb von 7-8 s das Band nach einem Programm abgesucht werden.

Allerdings wurde das Band für die Microdrives sehr teuer verkauft, teuer als Disketten, auch wenn das Laufwerk selbst recht preiswert war. Vor allem aber war es sehr unzuverlässig. Daher konnte es sich, wie auch andere Versuche einer "Band-Floppy", nicht durchsetzen.

Mit dem sinkenden Preis von Diskettenlaufwerken war nach etwa 10 Jahren (das erste Interface wurde 1977 von Tarbell für den Altair 8800 vorgestellt) Mitte der achtziger Jahre das Ende der Kompaktkassette als Datenspeicher auch bei Heimcomputern gekommen.

Um die Jahrtausendwende versuchten einige Bastler das Prinzip auf den Videorekorder zu übertragen, also auch hier die Daten analog als Bilder (genaue gesagt farbiger Flächen) zu speichern. Doch keiner dieser Versuche konnte sich auf dem Markt platzieren.

Festplatten

Der nächste Speicher nach den Magnetbändern, der heute noch in Gebrauch ist sind die Festplatten. Auch diese wurden von IBM eingeführt. Das IBM 350 RAMAC "Random Access Method of Accounting and Control." speicherte auf insgesamt 50 Plattenoberflächen 5 Millionen 6 Bit Buchstaben. Der Name zeigte die damals wichtigste Neuerung gegenüber Magnetbändern und Lochkarten an: auf die Information konnte direkt zugegriffen werden wie bei Arbeitsspeicher, ohne erst Stapeln von Karten einzulesen oder spulen zu müssen. Die Zugriffszeit wurde so um den Faktor 100 bis 1000 gesteigert. Ursprünglich nur für den Einsatz in Computern zur Realzeitdatenverarbeitung vorgesehen, setzten sie sich bald industrieweit durch.

Die frühen Festplatten waren enorm groß, die IBM 350 RAMAC z.B. so groß wie ein Kleiderschrank. Sie waren und sind isoliert von der Umgebung um das Eindringen von Luft zu verhindern. Dadurch konnte der Schreib/Lesekopf näher an die Platte und die Datendichte war höher. Wie bei Floppy Disk Laufwerken wurde eine Scheibe in Spuren und Sektoren unterteilt. Das konnte fest sein, doch da der Umfang jeder Spur von innen nach außen größer wurde, war dies unökonomisch und moderne Platten haben daher unterschiedlich viele Sektoren pro Spur. Innen weniger als außen. Da meistens beide Seiten eine Platte beschrieben wurden und es mehr als eine Platte in einem Laufwerk gab, sprach man von Zylindern. Ein Zylinder besteht aus den untereinander liegenden Spuren eines Plattenstapels

IBM 2311Festplattenlaufwerke waren in den sechziger bis achtziger Jahren groß und für Großrechner gedacht. Auch wenn die Nachfolgemodelle kleiner waren, so waren sie zumindest so groß wie Kühlschränke. Sie waren nichts für Minicomputer oder die "mittlere Datentechnik". Bild links: IBM 2311 Einheit für das System /360. Jede Einheit hatte 6 Platten mit 10 Schreib/Leseköpfen. Jede Platte 200 Spuren. Die Gesamtkapazität lag bei nur 7,26 MByte. Die Datenübertragungsrate 156 Kbyte/s. Bildautor: Mikaël Restoux

Die Revolution kam mit dem IBM 3340. Dieses als "Winchester Drive" bezeichnete Laufwerke für das IBM 370 System war hermetisch abgeschlossen und versiegelt. Die Versiegelung dürfte anders als bei frühen Laufwerken nicht gebrochen werden, (dort konnte man noch für Wartungsarbeiten an die Platten heran) denn die Köpfe setzten nicht wie frühere Laufwerke auf der Disk auf. Die dadurch bedingte Reibung senkte zum einen die Lebensdauer ab (ein IBM Angestellter im Ruhestand sprach gegenüber dem Autor von einer "spanabhobelnden" Betriebsweise der Platten) und sie begrenzte die Geschwindigkeit einer Festplatte. Die revolutionäre Neuerung waren leichte Köpfe und eine hohe Rotationsgeschwindigkeit. Dadurch schwebten diese auf einem Luftpolster in geringem Abstand über der Platte. Ein Staubkorn würde dazu führen, dass der Kopf auf die Platte aufschlägt, der sogenannte Head-Crash. Dies hat bei den hohen Rotationsgeschwindigkeiten (üblich sind heute 5400, 7200 und sogar 10.000 U/min) katastrophale Wirkung und beschädigt Oberfläche und Kopf. Daher muss die Platte hermetisch versiegelt werden.

Die Datendichte konnte in der Folge gesteigert werden und vor allem konnten so auch kleine Laufwerke, wie sie für PC's benötigt wurden hohe Datendichten erreichen.

Die ersten Heimcomputer waren nicht für den Anschluss an Festplatten vorgesehen. Das wäre angesichts der Rechenleistung und des verfügbaren Arbeitsspeicher auch nicht sinnvoll gewesen. Für die ersten 16 Bit Rechner wurden Festplatten eingeführt. Doch diese waren weitaus teurer als die gesamten Rechner. Die Situation änderte sich als Festplatten billiger wurden. Damit einher ging eine Reduktion der Größe. Für die PC's erschwinglich wurden  Festplatten mit der Einführung der Seagate ST-506/412 im Jahre 1980, dem ersten Laufwerk in 5,25 Zoll-Formatfaktor. Vorher waren sie noch 8° groß. Es war mit 1.500 Dollar zwar teurer als PC's zur gleichen Zeit, aber die Preise sanken rasch.

Der IBM PC erschien zuerst noch ohne Festplatte. Eine Erweiterungseinheit erlaubte ein Jahr später den Anschluss einer solchen. Doch diese war teuer als der IBM PC selbst. Zu der Festplatte war noch ein ein eigener Controller und ein eigenes Netzteil nötig, da der IBM PC nicht die Leistung hatte die Festplatte mit Strom zu versorgen. Erst beim 1983 erschienen IBM PC/XT war die Festplatte als Option einbaubar.

Das war die Situation Anfang bis Mitte der achtziger Jahre. Festplatten waren für professionelle Rechner (für den Büroeinsatz) als Option verfügbar, viele wurden aber noch mit zwei Diskettenlaufwerken verlauft. Bei den preiswerteren Heimcomputern wie dem Atari ST oder Amiga waren Festplatten anfangs gar nicht vorgesehen, es gab sie aber Ende der Achtziger Jahre als Option zu kaufen.

Mit der Einführung des 3,5 Zoll Formfaktors wurden 1986 Festplatten nochmals deutlich preiswerter. Es gab 1-2 Jahre lang sogar das Paradoxon, dass Aufrüstoptionen bestehend aus einer Controllerplatine für den IBM-Bus mit einer auf der Platine verschraubten 3,5 Zoll Platte billiger waren als ein Laufwerk ohne Controller im 5,25" Format für einen internen Einbauschacht.

Größenvergleich 5,25 und 2,5 Zoll PlatteAb etwa 1990 wurden zumindest alle IBM PC kompatiblen mit einer eingebauten Festplatte verkauft. Anfang der Neunziger Jahre wurde für den nun immer starker boomenden Notebook Markt die 2,5 Zoll große Festplatte auf den Markt gebracht, ihr folgte Ende der neunziger Jahre die 1,8 Zoll Platte für Kameras und MP3 Spieler. Sie passte auch in die größeren Slots für CF-Karten. Sie ist heute wieder vom Markt verschwunden, da die Speicherkapazität klein war (von dem Nettodurchmesser geht der Mittelteil mit Spindel ab, sodass nur wenig Platz für die Spuren blieb) und sie im Vergleich zu Flash-Speichern doch empfindlicher war. (Bild rechts: Größenvergleich einer 5,25 Zoll Platte in voller Bauhöhe mit einer 2,5 Zoll Platte für Notebooks. Die Notebookplatte fasst übrigens 6000 mal mehr Daten als ihr Pendant aus dem Jahr 1988.

Festplatten haben verglichen mit allen anderen PC-Komponenten aber auch den anderen hier vorgestellten Massenspeichern die größten Sprünge gemacht. Die betraf sowohl die Senkung des Preises wie auch die Steigerung der Kapazität. 1982 kostete eine Festplatte mehr als ein PC, heute macht sie bei einem Office-PC etwa ein Sechstel bis ein Siebtel des Gesamtpreises aus. 1982 war der Speicherplatz auf der Platte 15-mal so groß wie der Hauptspeicher, heute ist es das 500-fache. Zwischen 1990 und 2008 verdoppelte sich die Speicherkapazität pro Jahr zeitweise um 100%. Seitdem steigt sie aber nur noch langsam.

Was systembedingt nicht so anstieg waren die Datentransferraten und die Zugriffszeiten. Die 5 Megabyte fassende ST-507 von 1981 hatte eine mittlere Zugriffszeit von 95 ms und transferierte 625 kbyte/s. Eine heutige Festplatte erreicht eine Zugriffszeit von rund 9-12 ms und Datentransferraten von 120-150 MByte pro Sekunde. Das ist zwar in der Zugriffszeit um den Faktor 10 schneller und in der Datentransferrate um den Faktor 200, doch im selben Zeitraum wuchs die Kapazität von 5 MByte auf 3 Terrabyte, also um den Faktor 600.000. Anders ausgedacht, ein Vollbackup dauerte (theoretisch) 1980 noch 8 Sekunden, heute 20.000 s.

Wechselplatten

Deutlich später als Festplatten wurden Wechselplatten eingeführt. Festplatten waren damals schon im Einsatz, doch waren pro Laufwerk, dass so groß wie ein Kühlschrank war nur eine Platte möglich. 1965 führte IBM das IBM 2310 Wechselplattenlaufwerk ein. Es bestand aus einem Laufwerk mit dem Spindelmotor und den Schreib/Leseköpfen in der Mitte und einem Cartridge mit den Wechselplatten. Dieser bestand aus einer schützenden Plastikumhüllung mit einem Transportgriff in der Mitte und einem Plattenstapel mit einem Loch für den Motor, Der Stapel wurde zuerst aus der Basis entnommen und der Boden abgenommen, dann mit der Hülle in das Laufwerk eingesetzt, gedreht um es zu fixieren, wobei sich gleichzeitig die Befestigung der Schutzhülle löste. Danach konnte diese abgenommen werden und die Schutzverkleidung des Laufwerks geschlossen werden wodurch die Schreib/Leseköpfe aus ihrer Parkposition freigegeben wurden.

200 MB WechselplatteSo war die Entkopplung von teurem Laufwerk und preiswerten Magnetplatten möglich, allerdings war die Datendichte deutlich geringer, denn es war nun das Medium nicht mehr hermetisch von der Umgebung abgeschottet. Die Platten konnten trotz Umhüllung von Staub in der Funktion beeinträchtigt werden. Dadurch muss der Schreib/Lesekopf einen größeren Abstand von der Oberfläche einhalten um nicht durch Feinstaub beeinträchtigt zu werden und die Datendichte war geringer als bei Festplatten.

Die Größe eines Plattenstapels von 14 Zoll (35,6 cm) wurde bald zum Industriestandard. Anders als die Floppydisks waren Wechselplatten starre Medien und es waren meisten ganze Stapel mit bis zu 12 Platten.

Wechselplatten warn in den siebziger bis achtziger Jahren im weiten Einsatz bei Großrechnern. Sie wurden schließlich durch Festplatten, die zu Speichersubsystemen zusammengefasst wurden abgelöst. Bedingt durch die nicht hermetisch abschottbare Umgebung war ihre Speicherkapazität schließlich kaum noch zu steigern.

IM PC-Bereich eingeführte Wechselplatten waren dagegen in der Regel besondere Festplatten, die man während des Betriebs wechseln konnte, aber ein komplettes Laufwerk. Frühe Konstruktionen wie das Tandom DataPAC sparten den Laufwerkscontroller ein und waren so billiger als eine zweite Festplatte. Da später die Elektronik auf dem Motherboard integriert wurde, fiel aber auch dieser kleine Preisvorteil weg. Des weiteren sind heutige Steckersysteme (eSATA) nicht für das häufige Wechseln ausgelegt. Die mit USB angekoppelten Festplatten sind aber her als externe Laufwerke, denn als Wechselplatten anzusehen.

Die Floppy Disk

Über Zwanzig Jahre lang war die Floppy Disk der Standard Speicher für Heimcomputer, dabei liegen ihre Wurzeln bei IBM als Medium um neue Softwareversionen für das System 370 einzuspielen. IBM brachte für dieses Großcomputersystem 1969 die 8 Zoll große erste Floppy Disk auf den Markt. Sie bestand aus einer flexiblen Hülle aus Kunststoff, mit einer dünnen Beschichtung aus Eisenoxid. Sie war in einer flexiblen Plastikhülle eingeschlossen, Zugriff auf die Oberfläche war nur an einer Stelle möglich, wo der Schreib/Lesekopf die Daten auslesen konnte.

Da die damaligen Disketten, wie auch noch die folgende Generation biegsam waren, bekam das Medium die Bezeichnung "Floppy Disk" also "weiche Scheibe". An dem Prinzip der Aufzeichnung änderte sich nichts: Ein Schreib/Lesekopf unterteilte die Oberfläche radial in Spuren und entlang einer Spur in Sektoren gleicher Größe, zwischen denen es eine Lücke gab. Die seltenen, hardsektorierten Disketten hatten pro Sektor ein Indexloch, anhand durch das durchgeleitete Licht einer LED, der Sektoranfang festgestellt werden konnte. Hier lag die Kapazität fest. Üblich waren dagegen die softsektorierten Disketten, bei denen die Größe des Sektors und die Anzahl frei wählbar waren. Die Kapazität wurde bei verkauften Disketten lange Zeit immer unformatiert angegeben, weil die Aufteilung der Oberfläche in Sektoren von Hersteller zu Hersteller variieren können. Die Nettokapazität betrug üblicherweise 60-75% der Bruttokapazität, weil man hinter jeden Sektor ein Stück nicht nutzen konnte. Je kleiner die Sektoren desto kleiner die nutzbare Nettokapazität.

8" DiskÜblich waren Sektoren mit 256 Bytes (üblicherweise 16 Stück pro Spur), 512 Bytes (8 oder 9 pro Spur) oder 1024 Bytes (5 pro Spur). Standardisiert waren die Spuren. Es gab Disketten mit 40 oder 80 Spuren pro Oberfläche und einer oder zwei Oberflächen (single oder double density, single oder double sided). Die Unterscheidung erfolgte zumeist durch zusätzliche Indexlöcher. So gab es nicht wenige Tipps & Tricks indem man Indexlöcher stanzte oder zuklebte man Disketten mit mehr Daten beschreiben konnte, z.B. die Rückseite nutzen oder eine höhere Datendichte. Das war zumindest wenn man die höhere Datendichte nahm, natürlich riskant, denn ausgelegt waren die Disks nicht für diesen Einsatz. Relativ harmlos war es dagegen nicht nur 40 sondern 41-43 Spuren zu benutzen. Üblicherweise gab es noch den Platz dafür. Da die Formate nicht standardisiert waren, reichte es bei vielen CP/M Rechnern einfach die Anzahl der Spuren, der Sektoren und ihre Nummerierung/Größe dem Betriebssystem mitzuteilen und nach Neuformatierung konnte man dann mehr Daten auf die Disk packen.

Unformatiert entsprachen die Kapazitäten 125, 25ß0, 500 und 1000 Kilobyte pro Disk. Formatierte Kapazitäten lagen zwischen 89 und 800 Kilobyte.

1972 führte Memorex eine beschreibbare Version der 8" Diskette ein. Vorher waren sie nur als Read-Only Medium für das Verteilen von Software genutzt worden. Diese erste Version hatte eine Kapazität von 80 KByte, das entsprach 1000 der damals noch üblichen Lochkarten bei IBM.

Diese 8 Zoll Disketten waren noch nicht sehr verbreitet. Als der Altair aufkam, gab es erst nach zwei Jahren eine Diskettenstation mit 8 Zoll Laufwerken sowie eine BASIC Version die sie unterstützte. Sie war auch dann noch sehr teuer und nur wenige Käufer eines Altairs kauften sich ein Diskettenlaufwerk .8 Zoll Disketten hatten typischerweise 77 Spuren.

5,25" DiskDen Durchbruch für die Technologie brachte die von Alan Shugart 1976 auf den Markt gebrachte "Mini" Floppy mit 5,25 Zoll Seitenlänge. Ihr Laufwerk war mit 500 Dollar dreimal billiger als ein 8" Laufwerk und auch viel handlicher. Gary Kildall schrieb CP/M als Betriebssystem weil er die Software benötigte, um für sein von Intel zur Verfügung gestelltes Entwicklungssystem eine Shugart-Floppy nutzbar machen zu können. Der Bedarf nach einem Betriebssystem, das Floppys und ihren Speicherplatz programmübergreifend verwalten konnte war so groß, das Gary Kildall seine eigene Firma gründete und Digital Research zu einer umsatzstärksten Softwarefirma der siebziger Jahre wurde. Die ersten 5,25 Disks hatten 35 Spuren, später folgten 40 und 80 Spurlaufwerke.

Was allerdings von CP/M nicht standardisiert wurde, war das Format der Disketten. So gab es für CP/M Rechner sehr viele unterschiedliche Formate. Viele Hersteller kochten hier ein eigenes Süppchen. Allerdings gab es sehr oft die Möglichkeit ein Standardformat, so das IBM-Format mit 8 Sektoren pro Spur und 40 Spuren zu je 512 Byte zu lesen um Software auszutauschen. Andererseits konnte so ein preiswerter Rechner wie ein Heimcomputer ein einfaches und preiswertes Laufwerk mit nur einem Schreib/Lesekopf und nur der Fähigkeit 40 Spuren abzutasten einsetzen, während ein anderes Modell für den Firmeneinsatz beide Seiten nutzte und 80 Spuren unterstützte. Manche Firmen hatten beides im Angebot. So gab es bei Commodore die CBM Serie mit 500 KByte pro Disk und zwei Laufwerken pro Station, während der C64 nur ein Laufwerk unterstützte, das 170 KByte speicherte.

Auch die ersten Diskettenlaufwerke für die IBM-PC waren vom 5,25" Standard. Sie fassten anfangs 160 KByte , später 180 KByte und mit einem Patch zum Schreiben der Rückseiten auch 320/360 KByte. Sie wurden bald zum Standard auch bei Rechnern die nach anderen Hardwarestandards gebaut wurden.

1985 führte der IBM AT Diskettenlaufwerke mit hoher Dichte ein, (DS/HD) die nach wie vor 80 Spuren verwandten, aber 15 Sektoren pro Spur.  Noch immer hielt IBM am 5,25" Format fest. Für tragbare Computer hatte IBM aber schon die kleineren 3,5 Zoll Disketten eingesetzt, die Sony 1981 eingeführt hatte. Sie waren nicht nur handlicher, sondern durch eine starre Kunststoffhülle auch robuster. Es gab dann auch einige Spezialformate die sich jedoch nie breit durchsetzen konnten. So setzte die in Europa sehr erfolgreiche Firma Amstrad auf den noch kleineren 3" Standard und einige Rechner hatten sogar 2,5" und 2,8" Disks. Diese Speziallösungen hatten aber den Nachteil, dass Anwender ein vielfaches für eine Diskette bezahlen mussten. Die erste Disketten im 3" Format, die der Autor für seinen Rechner der Firma Amstrad brauchte, wurden nicht im Zehnerpack verkauft, sondern kosteten 17,98 DM pro Diskette. Dagegen kosteten zum gleichen Zeitpunkt 10 Disketten im 5,25 Format nur rund 40-50 DM.

3,5" Disk1987 führte IBM dann die 3,5" Diskette beim System PS/2 ein, ebenfalls in hoher Dichte mit 18 Sektoren pro Spur. Es war das letzte standardisierte Format, und bis zum Jahr 2003 war ein Laufwerk dieses Typs Standard in einem PC. Die nachfolgenden Typen konnten sich aus verschiedenen Gründen nicht durchsetzen. Das 2.880 KB Laufwerk (DS/ED) von IBM, weil es wie andere Erfindungen einer neuen Computergeneration patentrechtlich geschützt war. Später erschienen Alternativen wie magnetooptischen Disketten von 10 oder 21 MByte Kapazität anfangs der Neunziger Jahre. Zu diesem Zeitpunkt war es aber schon so, dass die meisten Rechner über eine Festplatte verfügten und die Laufwerke nur für das aufspielen von Software oder die Installation benötigt wurden, aber die tägliche Arbeit und die benutzten Programme auf der Festplatte lagerten. Es gab das Henne-Ei Problem, nur wenige Hersteller bauten die Laufwerke ein, weshalb sie teuer blieben und weil sie kaum eingesetzt wurden eine Nischenlösung. Später gab es noch von Iomega die Zip Laufwerke, die durch einen hermetischen Schutz der Platte, der erst im Laufwerk geöffnet wurde eine noch höhere Datenmenge von 100 Mbyte erreichten. Doch zum selben Zeitpunkt begannen CD-Brenner sehr billig zu werden und eine gebrannte CD konnte zwar nur einmal verwendet werden, aber sie war viel billiger als ein Zip Medium.

Die Diskette war ein Medium, dass gut zu den Heimcomputern passte. Wer einen Rechner mit 64 KByte Arbeitsspeicher hatte, wie dies bei der 8 Bit Generation wie dem Apple II, C64 oder den Tandy TRS-80 der Fall war, für den war eine Diskette mit 170 Kb Kapazität riesig. Das war etwa viermal mehr Kapazität als der nutzbare Arbeitsspeicher und da man damals nur Texte verfasste, passte neben der Textverarbeitung auch noch rund 60 Seiten Text auf eine Diskette. Dabei war ein Diskettenlaufwerk finanzierbar. 1982 kostete eines typischerweise etwa 1000 DM mit Controller und 800 ohne (für das zweite Laufwerk). Festplatten waren Anfang der achtziger Jahre noch extrem teuer. IBM's erste Festplatte von 20 MB Kapazität war teurer als der PC mit Diskettenlaufwerken und kostete über 10.000 DM. Bei geschäftlich genutzten Rechnern wurden meist zwei Diskettenlaufwerke eingesetzt. Eines auf dem das Betriebssystem und die Programme waren, ein zweites auf dem die Daten abgelegt wurden. Bei Heimcomputern gab es meist nur ein Diskettenlaufwerk, auch da das Betriebssystem hier in ROM-Chips im Rechner steckte. Dafür musste man, um eine Diskette zu kopieren, jeweils einen Teil der Diskette in den Arbeitsspeicher einlesen, dann die Zieldiskette einlegen und dies je nach Typ typischerweise fünfmal wiederholen. Legte man aus versehen die falsche Disk ein, so waren die Daten futsch. Für diese Vorgehensweise bürgerte sich bald der Ausdruck "Disc-Jockey" ein.

Es war auch für die Rechner angemessen, denn ein 8-Bit Rechner war noch so langsam, dass er eine Diskette nicht in einer Umdrehung des Laufwerks lesen konnte. Nachdem die Daten gelesen waren, musste eine Prüfsumme berechnet und vergleichen werden, die Daten schließlich noch mindestens im Speicher umkopiert werden um den Puffer wieder freizugeben. Dauerte dies länger als die Zeit zwischen zwei Sektoren zur Verfügung stand (bei 300 U/min und 512 Byte Sektoren maximal 5 ms) so war der nächste Sektoranfang schon unter dem Schreib/Lesekopf vorbeigezogen und man musste eine Umdrehung (eine Fünftel Sekunde) warten bis er wieder unter dem Schreib/Lesekopf vorbeizog. Daher wurden oft die Sektoren mit einem Interleave, einem Versatz formatiert. Bei meinem System war ein Interleave von 9 vorgesehen, das sah in Sektornummern so aus: 41,43,45,47,49,42,44,46,48.

3" Disk40 war ein Offset für das Format. 1 die Nummer des ersten Sektors. Der nächste (die 42) kam erst nach vier Sektoren also einer halben Spur. Maximal konnte so das Laufwerk pro Umdrehung zwei Sektoren lesen oder eine Spur in 4,5 Sekunden. Es zeigte sich, dass man den Interleave, je nachdem welche Software man einsetzte, auch auf 3 oder gar 2 drücken konnte, womit man pro Sekunde drei oder viereinhalb Spuren einlesen konnte.

Wenn allerdings schon eine Floppy schneller als der Rechner ist, dann ist eine Festplatte, die noch schneller ist, auch noch zu schnell für den Rechner. Die ersten IBM AT hatten Festplatten mit einem Interleave von 6, sprich brauchte 6 Umdrehungen um eine Spur einzulesen, selbst beim IBM AT war der Interleave trotz zweieinhalbmal schnellerem Prozessor bei 3.

Das änderte sich im Laufe der achtziger. 1986 rutschte der Preis von Festplatten unter 2000 DM, damit waren sie zwar immer noch die teuerste Einzelkomponente eines Rechners, aber Rechner mit einem Verkaufspreis von 5000 DM und höher hatten dann nur noch ein Diskettenlaufwerk und eine Festplatte. Ab 1989 steckte eine Festplatte in fast jedem neuen IBM-kompatiblen Rechner und das Diskettenlaufwerk diente nur noch zum Installieren von Software. Auch wurde es immer weniger nützlich, weil Geschwindigkeit und Kapazität kaum ansteigen. Beim ersten IBM kompatiblen Rechner des Autors brauchte man 25 Disketten und eine Stunde Zeit um ein Backup der Festplatte anzufertigen. Beim letzten, der noch ein Diskettenlaufwerk hatte, wären es über 100.000 Stück gewesen.

Was überlebt hat ist der Formfaktor. Da in den Gehäusen Aussparungen für die Laufwerke und die Schrauben (Laufwerkskäfige) vorgesehen waren, wurden Festplatten mit denselben Gehäuseabmessungen wie Diskettenlaufwerke gefertigt. Die ersten Festplatten hatten dann auch das 5,25 Zoll Format. In den neunziger Jahren setzte sich bei den Festplatten das kleinere 3,5 Zoll Format durch und ist bis heute für Desktop Rechner die Standardgröße geblieben. Auch CD-Brenner und DVD-Brenner haben das 5,25 Format, hier bei der CD aber eher durch Zufall, denn diese wurde nicht als Speichermedium für Computer sondern für Musik erfunden.

Festkörperspeicher

Alle bisherigen Massenspeicher setzten ein mechanisch bewegte Medium ein, also rotierende Scheiben, Bänder oder Karten. Es fehlte nicht an Versuchen den Massenspeicher wie den Arbeitsspeicher aus Komponenten zu konstruieren, die keine beweglichen Teile haben. Dafür hat sich der Ausdruck "Solid State" eingebürgert, der heute auch in den Solid State Disks (SSD) verwendet wird.

Der erste Versuch war der Magnetblasenspeicher, der in den sechziger Jahren entwickelt wurde und der in den siebziger Jahren sehr populär war. Es handelte sich um eine Oberfläche aus dem Mineral Granat. Die wurde wurde so behandelt dass es auf der Oberfläche viele Zonen mit schwachen Magnetfeldern gab. An einem Ende der Fläche gab es viele kleine Elektromagneten, die durch ihren Strom eine Magnetblase erzeugten, die dann durch den Stromfluss von einer Feldregion als "Blase" zum nächsten magnetisierten Bereich wanderte und am Ende von einem Detektor als Magnetisierung ausgelesen wurde. Vom physikalischen Prinzip her handelte es sich um die unbewegliche Version eines Trommelspeichers. Er ist, wie alle magnetischen Speicher, ein nichtflüchtiger Speicher.

In den siebziger Jahren meinte man, damit einen sehr guten Massenspeicher gefunden zu haben. Magnetblasenspeicher war robust, Module kompakt und der Aufbau verglichen mit Halbelitern sehr einfach. Intel brachte z.B. 1981 das Intel 7110 Bubble Memory Module heraus. Es fasste 1 MBit und hatte eine Datenübertragungsrate von 100 kbit/s. Gemessen an den Größen von Speicherchips (damals maximal 64 Kbit) war die Kapazität enorm, leider nicht gemessen an Festplatten. Man hätte 80 dieser Module benötigt, um eine damals übliche 10 MByte Platte zu ersetzen. Der Vorteil des Magnetblasenspeichers war seine niedrige Zugriffszeit von nur 500 Mikrosekunden. Der Nachteil war, dass man ihn nur seriell auslesen konnte. Die Datenübertragungsrate war daher sehr niedrig. 100 kbit/s waren nur etwa 12 kbyte/s, also weniger als die Datenübertragungsrate eine schnellen Diskettenlaufwerks.

Für viele Rechner als "Massenspeicher" wichtig waren dagegen die Anfangs der siebziger Jahre erfundenen EPROMs. Sie waren nur in einem Programmiergerät programmierbar und mussten zum Löschen mit UV-Licht bestrahlt werden. Aber sie ermöglichten es ein Programm dauerhaft abzulegen. Viele Firmen die Zubehörgeräte oder Spiele für Heimcomputer produzierten, legten diese auf EPROMs oder deren Nachfolgern den EEPROMs (Electric Erasable PROMS) ab. Fast jeder Heimcomputer hatte einen Modulschacht in denen man solche Module zur Erweiterung einschieben konnte. Gemessen an der Verbreitung war es der populärste Speicher in den frühen Achtziger Jahren, auch wenn der Privatanwender selbst keine ROMS erstellte. Mit dem Siegeszug der IBM-PC Linie, die als einziges ROM das BIOS hatte, und das ganze Betriebssystem von Diskette oder Festplatte luden, anstatt das es in ROM-Chips steckte, schien diese Ära beendet.

Das änderte sich als aus den EEPROMS die Flash-ROMS, heute eher als FLASH-RAMs bekannt, entwickelt wurden. EPROMS waren nur durch UV-Licht löschbar. EEPROMS auch durch Strom, aber beide brauchten eine höhere Programmierspannung als die spätere Lesespannung. Flash-ROMS haben diesen Nachteil nicht, können aber nur in großen Blöcken (typisch 512 Kbyte) neu beschrieben werden. Dafür ist Datenübertragungsrate beim Schreiben größer. EEPROMs und EPROMS sind Speicher die für permanente Programme ausgelegt waren, also langsam beschrieben wurden, weil dies nicht so oft erfolgte. Flash-Speicher erlaubten es erstmals Daten permanent auf relativ kleinen Medien abzulegen. Sie wurden zuerst daher in Speicherkarten für Kameras (SD, CF-Karten) eingesetzt, dann folgten USB Sticks und mit den sinkenden Preisen werden sie nun auch im PC Bereich eingesetzt. Zwar ist Ende 2012 ein SSD-Laufwerk pro GByte noch zwanzigmal teurer als eine Festplatte, doch die Kapazität ist ausreichend für Betriebssystem und die wichtigsten Daten, wenn auch nicht die gesamte Video und MP3-Sammlung. Daher werden zunehmend SSD als Bootlaufwerke genutzt, während man für große Datenbestände eine Festplatte parallel nutzt. Man profitiert vor allem von schnelleren Reaktionszeiten, also der Zeit nach der man mit Windows wirklich arbeiten kann oder der Zeit die vergeht wenn eine Anwendung gestartet wird, bis sie auch genutzt werden kann. Bei sequentiellen Schreib/Leseoperationen ist der Vorteil gegenüber Festplatten dagegen nicht so stark ausgeprägt.

Mehr zu der Technologie von Flash-Speichern on dem Artikel über Arbeitsspeicher.

Artikel erstellt am 21.11.2012

Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.


© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Neues Hier werben Bücher vom Autor Buchempfehlungen Top 99