Home Computer Computer Geschichte Site Map counter

Die Technik des Computers

Einleitung

Aufgrund der vielen Aspekte der Geschichte des Computers habe ich diesen Artikel in einige Sub-Artikel gegliedert die thematisch verschiedene Aspekte behandeln und zusammen eine größere Übersicht ergeben.

Die Technik

Die grundlegenden Theorien über die Bestandteile des Computers wurden schon in den späten 40 er Jahren von Turing entwickelt. Danach enthält ein Computer mindestens ein Rechenwerk, einen Speicher sowie Verbindungsbusse zwischen diesen und zur Ausgabe von Daten. Von Neumann entwickelte später die Architektur nach der auch heutige Computer arbeiten. Danach werden Befehle geholt, dekodiert, ausgeführt und die Ergebnisse zurück geschrieben. Daten und Programme teilen sich einen gemeinsamen Speicher.

Zentrales Element für die Geschwindigkeit eines Computers ist aber ein Schalter. Wie der Lichtschalter an der Wand lässt er in einer Stellung Strom durch, in der anderen nicht. Von der Geschwindigkeit des Schalters beim Umschalten zwischen diesen Zuständen hängt die des Computers ab. Fortschreitende Entwicklungen waren hier Relais, Vakuumröhre, Transistor und integrierte Schaltung.

Die ersten Computer - noch mechanisch

Das Relais Schon 1937 konstruierte der junge Ingenieursstudent Konrad Zuse den ersten Computer die Z1. Ganz alleine - im Wohnzimmer der Eltern. Als Schalter verwendete er Relais, die damals - wie auch noch Jahre später - zur Vermittlung von Telefongesprächen benutzt wurden. Ein Relais besteht aus zwei dünnen Drahtbügeln (Kontakt- und Klopfhebel) mit einem Abstand dazwischen, so können diese sich nicht berühren und kein Strom kann durch sie fliesen. Eine Spule unter einem Bügel kann aber unter Strom gesetzt werden, das auftretende Magnetfeld zieht den anderen Bügel an. Es kommt zum Kontakt mit dem Klopfhebel und Strom kann fliesen - Ein elektromechanischer Schalter.

Zuses erster Computer richtiger, die Z3 von 1941 bestand aus 600 Relais für das Rechenwerk und 1400 Relais für den Speicher. (Zum Vergleich: ein einfacher 8 Bit Prozessor wie er später in den ersten PCs eingesetzt wurde hatte zirka 4500 Transistoren). Dieser Rechner war der erste Computer der Welt. Der Rechner war programmierbar und das Programm wurde auf Lochstreifen gespeichert - eigentlich alte Kinofilme, die Zuse mit einem Bürolocher bearbeitet hatte. Obwohl sicher ein Rechner kriegswichtig war, wurde Zuse nie besonders viel Aufmerksamkeit zuteil und er bastelte bis zum Ende des Krieges weiter bis zur Z4.

Parallel dazu arbeitete man in England an einem Computer, Colossos der die chiffrierten Funkmeldungen der Enigma entschlüsseln sollte. Auch in Amerika arbeitete man an einem Computer. Der erste, Mark I kam 1943 heraus, er hatte 3304 Relais, 800 km Draht die 3 Millionen Verbindungen verknüpften. Der Rechner war 15 m lang, 2.4 m hoch und wog 5 t. Über 420 Wählschalter musste man von Hand das Programm eintasten. Mark I schaffte eine Subtraktion in 0.3 sec, eine Multiplikation in 3 sec. Auch Zuses Rechner schaffte nur 20 Additionen pro Sekunde.

Die Vakuumröhren und der erste "Bug"

Vakuum Röhre Der Grund für diese langsame Rechengeschwindigkeit war die Wahl des Schalters: Durch das mechanische Prinzip dauerte es einige Sekundenbruchteile bis ein Kontakt hergestellt wurde, die Rechengeschwindigkeit war mit Relais äußert begrenzt. Zuses Z3 Taktfrequenz lag im Bereich von wenigen Herz, nicht Gigaherz.

Doch schon 1945 wurde ENIAC vorgestellt. Der Rechner war ursprünglich gebaut worden, um neue Waffen für den Krieg zu berechnen, doch kam er dafür nicht mehr rechtzeitig. Der Rechner basierte nun auf Vakuumröhren wie sie als Verstärker in Radios eingesetzt wurden. Bei einer Vakuumröhre ist zwischen einer stromführenden Kathode und einer stromaufnehmenden Anode ein Gitter in einem Vakuum. Durch das Spannungsgefälle werden Elektronen von der Kathode zur Anode emittiert. Strom fliest, wenn diese an der Anode ankommen. Setzt man das Gitter zwischen den beiden Elektroden aber unter Strom so stößt die negative Ladung die Elektronen ab - kein Strom fliest. Wie das Relais ist auch die Vakuumröhre ein Schalter, nur etwas kleiner (8 anstatt 10 cm) und vor allem schneller. Eine Elektronenröhre kann 1000 mal schneller rechnen als ein Relais. Und beim ersten Probelauf des ENIAC - der mit 17468 dieser Röhren 170 qm Platz einnahm - rechnete er die Wirkung einer Wasserstoffbombe in einem Monat aus. ENIAC schaffte schon 1000 Rechnungen pro Sekunde.

Radioröhre Elektronenröhren haben aber auch Nachteile: Sie verbraten enorme Mengen von Strom und sind nicht sehr langlebig. Wenn eine Elektronenröhre etwa eine Lebensdauer von zwei Jahren hat, so kann man leicht berechnen, das bei ENIAC etwa eine pro Stunde defekt war. Die damaligen Programmierer waren mehr Mechaniker, als mit der Programmierung beschäftigt.

Grace Hopper, eine der ersten Programmiererinnen die später auch COBOL erfand, prägte den Ausdruck "Bug" (Käfer) für einen Computerfehler - Eine Motte hatte in ENIAC einen Kurzschluss verursacht. Von Programmierung im heutigen Sinn konnte man allerdings auch nicht sprechen, aufgrund der beschränkten Architektur wurde ein Programm geschrieben, indem die Röhren geeignet verbunden wurden. Das Programm wurde sozusagen über die Hardwareverdrahtung geschrieben (Immerhin eine permanente Programmierung)

1951 wurde mit dem Univac der erste kommerzielle Computer vorgestellt, also ein Rechner der nicht von Regierungsstellen in Auftrag gegeben wurden sondern auf dem freien Markt verkauft werden sollte. Bis Ende der fünfziger Jahren gab es schon einige Firmen die Computer anboten. IBM - die führende Firma für Büromaschinen - stieg erst relativ spät ein, hatte jedoch mit der Einführung von abwärtskompatiblen Systemen die erweiterbar waren sehr großen Erfolg und wurde bald Marktführer.

Der Transistor und der kommerzielle Erfolg

Transistor Solange Rechner mit Vakuumröhren arbeiteten gab es nur einen beschränkten Markt für Computer. Computer waren damit unhandlich, fehleranfällig und langsam. So gab es in den späten 40 er und fünfziger nur wenige Computer mit beschränkter Speicherfähigkeit, vor allem für wissenschaftliche und militärische Zwecke wie die Berechnung der Wirkung von Atomwaffen oder die Bahnen von Raketen. Auch Firmen wie IBM, glaubten nicht daran, das man mehr als ein paar dieser teuren Ungetüme (ENIAC wog 30 t und belegte einen ganzen Saal) verkaufen würde. Der erste Transistor war schon 1947 erfunden worden - allerdings mit Germanium als Halbleiter. Germanium, - ein Metall teurer als Gold - machte den Transistor 10 mal teurer als Elektronenröhren, weshalb diese zuerst selten in den Computern eingesetzt wurden

1954 wurde jedoch der Transistor mit Silizium als Schaltelement erfunden. Damit wurde der Computer erheblich billiger. Der Transistor besteht aus 3 Schichten: Einem Emitter aus einem Halbleitermetall (zuerst Germanium, später das billigere Silizium), das dotiert ist mit Atomen die Elektronen zur Verfügung stellen (z.B. Phosphor), einem Kollektor auf der gegenüberliegenden Seite - ebenso dotiert. In der Mitte befindet sich die Basis, die dotiert ist mit Atomen die Elekronenmangel haben (z.B. Bor). Aufgrund der Ladungsverteilung nennt man dies einen NPN Transistor (Negativ-Positiv-Negativ), es gibt auch das Gegenteil den PNP Transistor.

Transistor Es ist am einfachsten sich einen Transistor als zwei aneinander gefügte Dioden zu denken. Eine Diode ist ein Halbleiter bei dem einen Schicht mit Elementen dotiert ist die ein Elektron weniger als das Silizium haben und eine Seite mit Elementen die eines mehr haben. Zum Aufbau eines stabilen Kristallgitters fehlen nun Elektronen (p Schicht) oder sind auf der anderen Seite zuviel (n Schicht). Es kommt nun zu einem Ladungsausgleich an der Kontaktstelle, wodurch aber eine Doppelschicht entsteht. Diese entsteht dadurch, dass die p-Schicht zwar nun ein Kristallgitter aufbauen kann, aber zu viele Elektronen hat (negativ geladen) und umgekehrt die n-Schicht positiv geladen ist. In diesem Zustand lässt eine Diode keinen Strom passieren. Legt man nun aber an die p-Schicht eine positive Spannung an und an die n-Schicht eine negative, so wird die Sperrschicht abgebaut, da die negativen Elektronen zum Pluspol wandern und die positive Ladung durch Elektronen am dem Minuspol abgebaut wird. Die Diode ist in Durchlassrichtung gepolt. Tauscht man die Spannungen aus so verstärkt sich die Sperrschicht und die Diode lässt keinen Strom passieren. Sie ist im Sperrbetrieb.

Ein Transistor ist nun einfach eine "Doppeldiode" mit einer gemeinsamen Mittelschicht. Egal von welcher Seite man Strom durchleiten will, eine Seite im Transistor ist immer im Sperrbetrieb. Üblicherweise läuft der Strom immer vom Emitter (E) zum Kollektor (K), wobei die Strecke Emitter-Basis im Sperrbetrieb ist und die Strecke Basis-Kollektor im Durchlassbetrieb. Um einen Transistor leitend zu machen muss man nun einfach an die Basis eine höhere Spannung anlegen als zwischen Emitter und Kollektor anliegt, dann wird auch die Strecke Emitter-Basis in eine Diode im Durchlassbetrieb umgewandelt und der Transistor ist leitend.

Gegenüber der Vakuumröhre hatte der Transistor nur Vorteile: Er war kleiner (erste Modelle 1 cm, später nur noch wenige mm), verbraucht weniger Strom und war robuster. Vor allem aber schaltete er 100 mal schneller. Es muss kein Hochspannungsfeld aufgebaut werden Sonden nur wenige Volt, die Elektronen wanden schnell, die meiste Zeit benötigt ein Transistor nach Ende eines Schaltvorgangs um das aufgebaute Potential wieder abzubauen. Mit einem Transistorrechner waren erstmals Megaflops möglich.

1960erschienen die ersten voll Transistor ausgerüsteten Computer - aufgrund einer Ausschreibung der Kernwaffenentwicklung in Livermore und Los Alamos. Sie sollten 100 mal schneller als die schnellsten Röhrenrechner sein. Die ersten Geräte waren der LARC von Rand mit 60.000 Transistoren um etwa 1 MFLOP und die IBM 7030 (Stretch) mit 169.100 Transistoren und 3 Megaflops. Mit diesen Geräten war auch der Startschuss geläutet in eine Trennung des Computermarktes. Denn beide Firmen machten mit den beiden auf Geschwindigkeit getrimmten Maschinen Millionenverluste. Es kam zu einer Trennung in einen Markt für wirtschaftliche genutzte Computer - mit dem Wert auf Datenverarbeitung und große Speicherfähigkeit und einem Markt für schnelle Computer für die Wissenschaft und Forschung, den so genannten Supercomputer.

Die integrierte Schaltung

Intel 4004 Der entscheidende Durchbruch war aber die integrierte Schaltung. Die Idee: Alle Elemente eines Computers auf einem Chip zu integrieren. Dazu wird auf einem Wafer aus Silizium nacheinander Masken gelegt. Für das Dotieren sprüht man Bor oder Phosphor durch die Maske, für Leitungsbahnen Aluminium, für Isolationsschichten zuerst Aluminium und oxidiert dieses dann. Nicht benutzte Stellen werden mit Photolack abgedeckt, der später wieder weggeätzt wird. Bis zu 31 Masken werden heute so eingesetzt, wobei man immer feiner wird. Die erste Schaltung von Jack Kilby (Nobelpreis 2000) bestand 1958 noch aus 4 Transistoren und 4 Kondensatoren und war ein Flip-Flop (ein Schaltelement welches einen Zustand speichert), doch schon 19siebzigerreichte man 2000 Transistoren auf einem Chip (Bild links Intel 4004, 2250 Transistoren), 1981 450.000 und heute (2002) etwa 275 Millionen. Mit der Reduktion der Dimensionen sanken auch die Schaltzeiten der Einzelnen Elemente und die Rechner wurden immer schneller.

Der entscheidende Vorteil ist aber, das man damit Logikbausteine wie am Fließband produzieren konnte. Auf einem Wafer 100-1000 zugleich und diese durchliefen die Fabrik eher wie eine Zeitung die bedruckt wird, als wie früher beim Zusammenbauen der Rechner von Hand. Damit konnte man die Kosten für Computer erheblich senken. 1962 wurden die ersten integrierten Schaltungen (für die sich die Bezeichnung "Chip" einbürgerte) serienmäßig produziert und damit konnte man eine Schaltung von einem DIN A4 Blatt auf die Größe eines Pfennigs reduzieren. 1964 erschienen die ersten Rechner mit integrierten Schaltungen, 1968 dann die ersten Computer, die ganz in dieser neuen Technik hergestellt waren. Die Geschwindigkeitsgewinne beruhten nun vor allem auf die geringen Wege, Computer wurden dadurch kleiner und schneller. Seitdem werden Rechner immer schneller, vor allem dadurch das man immer mehr Schaltelemente auf einen Chip packt.

Speichertechniken

Ohne die Möglichkeiten Daten zu speichern ist jeder Computer wertlos, wobei sich schon in der Frühzeit die Unterteilung in einen Arbeitsspeicher für momentan benötigte Programme und Variablen, und einen größeren Datenspeicher für die größeren Dateien ergaben. Prinzipiell kann man in einem Schalter natürlich auch Daten speichern - ist er offen so lässt er keinen Strom durch (0), ist er geschlossen so geht Strom durch. Da man zumeist aber erheblich mehr Speicher als Schaltungselemente für die Logik benötigt, ist dies unwirtschaftlich.

Ringkernspeicher Die ersten und lange Zeit favorisierten Speicher waren Kernspeicher: Kleine Eisenringe auf einem Geflecht von X/Y Datenleitungen aufgezogen. Man nutzte die Eigenschaft aus, das ein Strom diese magnetisieren konnte. Dazu schickte man je die Hälfte des benötigten Stromes durch die X/Y Leitungen und nur am Kreuzungspunkt reichte er zum Magnetisieren oder Entmagnetisieren aus. Zum Auslesen wurde dasselbe Prinzip angewandt, nur wurde nun auf einer dritten - der Leseleitung - ein Strom induziert, danach musste die Information erneut geschrieben werden.

Bis Halbleiterbauelemente Anfang der siebziger Jahre den Kernspeicher verdrängten war er der häufigste Speicher. Die Zugriffszeit lag bei 500-1000 ns und er war nichtflüchtig, also behielt nach dem Ausschalten die Information. Der Nachteil waren die Kosten: Kernspeicher wurde in Handarbeit verdrahtet, was ihn teuer machte und der Miniaturisierung Grenzen setzte. Die ersten Module hatten 4 mm große Ringe und 64 Bit, die letzten 0.46 mm große Ringe und 8192 Bit pro Modul. 1951 wurde der erste Magnetkernspeicher eingesetzt.. Die letzten dieser Speicher Anfang der siebziger Jahre, hatten auf Flächen von 6 × 6 cm bis zu 4096 kleine Eisenringe auf Drähten aufgezogen. (Bild links)

Ergänzt wurde der Kernspeicher ab 1970 durch den Magnetblasenspeicher, bei dem bewegliche magnetische Zonen in einer Schleife als Informationsspeicher benutzt wurden. Es war ebenfalls ein nichtflüchtiger Speicher mit sehr hoher Dichte - Ende der siebziger Jahre konnten auf einem 50 × 40 × 15 mm großen Modul 512 KBit gespeichert werden, während Halbleiter erst 16 Kilobit Kapazität aufwiesen. Die Kosten waren mit Halbleiterspeichern vergleichbar oder sogar geringer, jedoch war die Datenübertragungsrate langsam, da die Blasen seriell ausgelesen wurden. Trotzdem dachte man noch Anfang der siebziger Jahre, das Blasenspeicher den Halbleiterspeicher ergänzen oder ersetzen würden, doch dieser wurde immer schneller und günstiger.

Seit Ende der sechziger Jahre gibt es die heutigen RAMs auf Basis von Halbleiterelementen. Dabei bestehen diese aus Zellen aus je einem Transistor und einem Kondensator. Der Transistor schirmt den Kondensator von den Datenleitungen ab, soll er ausgelesen oder geschrieben werden so wird der Transistor durchgeschaltet. Diese Konstruktion ist sehr einfach und so kann man auf kleinstem Platz große Datenmengen unterbringen. 19siebzigerschienen die ersten DRAM Speicher in dieser Architektur die auch heute noch eingesetzt wird. Sie verdrängte frühere Lösungsansätze wie statische Halbleiter Speicher (SRAM) aus 6-8 Transistoren bald in Nischen, auch wenn die Zugriffsgeschwindigkeit niedrig war. Aber der Preis war sehr viel günstiger als bei allen anderen Speichern. Intel machte zuerst erheblich mehr Umsatz mit Speicherbausteinen als mit ihren Prozessoren.

RAM und ROM Mit den Halbleiterbausteinen kam auch erstmals die Trennung des Speichers in ROM und RAM. Da Ringkernspeicher nichtflüchtig waren, war jeder Speicher den man nicht veränderte, automatisch ROM. Das war praktisch denn so konnte man den knappen Arbeitsspeicher (Anfang der siebziger Jahre hatten selbst die größten Großrechner weniger als 1 MB RAM) beliebig aufteilen. Mit Aufkommen der Halbleiterelemente wurde ein unveränderlicher Speicher nötig. Man kann bei der Herstellung eines Speichers gezielt Leitungen ausblenden und so zu einem ROM kommen, oder man kann durch eine hohe Programmierspannung Sollbruchstellen in Leitungen durch schmelzen - Das programmierbare ROM oder PROM. Beide Techniken ergeben aber einen unveränderlichen Speicher. Da schon früher Software aktualisiert wurde, war man an einem wieder beschreibbaren Speicher interessiert und entwickelte zuerst das mit UV Licht löschbare EPROM und dann das schneller durch elektrische Spannungen löschbare EEPROM. Dessen modernster Spross ist das Flash-ROM, bei dem die Zugriffszeit und die Zeit für das Neubeschreiben nur wenig auseinander liegen.

Die Verbreitung von ROMs ist sehr wechselhaft gewesen. ROMs sind prinzipiell billiger herstellbar als RAMs und die ersten Heimcomputer hatten erheblich mehr ROM als RAM. Etwa ab Mitte der achtziger Jahre kippte dieses Verhältnis. In den IBM kompatiblen PCs steckt nur ein kleines Boot ROM mit den elementaren Routinen um auf die Hardware zuzugreifen, den größten Teil der Software die früher in ROMs steckte, wird von dem Massespeicher geladen. Mit dem Aufkommen von mobilen Geräten ohne Festplatte wie Handys, PDAs oder Webpads ändert sich dies heute wieder. Oftmals ist es hier so, das der größte Speicher aus ROMs besteht. Bei Geräten wie Handys wo der RAM Speicher nur selten beschrieben wird und keine hohe Zugriffszeit haben muss, besteht sogar der ganze Speicher aus Flash-ROM's.

Massenspeicher

Als Datenspeicher wurden schon bald die magnetische Speicherung eingesetzt. Der Erste Speicher war Trommelspeicher: Auf einer massiven Trommel wurde eine Beschichtung aus einem magnetischen Material aufgebracht. Dieses konnte induktiv durch einen Strom magnetisiert werden oder erzeugte beim Auslesen einen induzierten Strom. 1947/48 wurde mit den Magnettrommelspeicher der erste Speicher für Computer eingeführt, wodurch diese kleiner wurden. Man konnte nun Programme von dort holen und musste die Hardware nicht mehr verändern.

Ergänzt wurde dies durch Bänder, bei denen man durch die wesentlich größere Oberfläche schon bald mehrere Megabytes unterbringen konnte. Damit das zuerst manuelle Wechseln der Bänder (welches die so genannte Operateure erledigten - man brauchte für einen Großrechner typischerweise 3 dieser Operateure, die nur damit beschäftigt waren Bänder zu wechseln, Lochstreifen und Karten einzulegen etc.) den Rechner nicht aufhielt, hatten typische Großrechner ganze Batterien von Bandlaufwerken. Diese sind auch heute noch im Einsatz, werden heute aber von Robotern gewechselt und haben Kapazitäten im oberen Terabyte Bereich.

Abgelöst wurde der Trommelspeicher durch Plattenspeicher: Anstatt eine voluminöse Trommel zu benutzen brachte man die magnetische Schicht auf einen Stapel von Platten auf. Die Datendichte stieg hier schnell an und erreichte Anfang der achtziger Jahre Werte von 200-400 MByte pro Stapel aus 4-8 Platten. Die Abtastung erfolgte wie bei Diskettenlaufwerken (die "Arme Leute" Version eines Plattenstapels) durch einen Kontakt des Schreib/Lesekopfes mit der Platte. Durch den Abrieb war damit die Geschwindigkeit begrenzt.

1974 wurde in den IBM Forschungslabors die noch heute im Einsatz befindliche Festplatte entwickelt, bei der man die Kapazität und Geschwindigkeit erhöhte, indem man den Kopf berührungslos auf einem Luftpolster schweben ließ und das Laufwerk hermetisch abschloss. Ab 1982 waren Festplattenlaufwerke auch für PCs bezahlbar und heute (2002) erreichen Sie Kapazitäten von 180 GByte bei 13000 Umdrehungen und Leseraten von 40 MByte/Sekunde.

Ausgestorbene Peripherie

IBM stieg in das Computergeschäft erst relativ spät Mitte der 50 er Jahre ein, konnte sich jedoch durchsetzen, da sie den Computer als Ergänzung zu schon damals im Einsatz befindlichen Mechanischen Rechenmaschinen einführte. Lochkartenmaschinen konnten Daten die durch Löcher (oder eben keine) an bestimmten Stellen repräsentiert wurden auswerten. Seit Ende der neunziger Jahre des 19 Jahrhunderts gab es diese Technologie und sie war inzwischen vervollkommnet: Man konnte die Karten sortieren, zählen, Submengen erstellen, kurzum, man konnte damit Daten verarbeiten. Da Computerzeit kostbar war setzten sich bald Lochkarten auch als Eingabegerät durch: Man stanzte an einem Stanzer Karten und fütterte über einen Leser dann den Computer - bis zum Einlesen benötigte man keine Computerzeit. Als schnellere Ergänzung gab es den Lochstreifen er nach demselben Prinzip arbeitete. Bis in die siebziger Jahren waren Lochkarten gängige Eingabemedien, genormt auf 80 × 12 Bit. Erst langsam stand genügend Rechenzeit zur Verfügung, um damit alternativ Terminals als Eingabegeräte zu bedienen.

Auch die Ausgabe auf dem Bildschirm bereitete Schwierigkeiten. Es war zuerst zu teuer dafür Speicher und eine Logik zu bauen die 25 mal pro Minute das Bild neu aufbaut. So steuerte man direkt die Bewegung des Elektronenstrahls und nahm einen nachleuchtenden Monitor - Da das Bild somit nicht wie heute aus vielen Punkten besteht, war auch Grafik ohne großen Grafikspeicher möglich.

60 Jahre Computer - ein Rückblick

Im Juni 2001 wurde der Computer 60. Man kann diese 60 Jahre recht einfach in 3 Perioden einteilen die mit wesentlichen Entwicklungen korrespondieren:

1941-1961: Entwicklung der Technik

In dieser Zeit, der "Kinderzeit" des Computers lagen die wesentlichen Schritte der Technikentwicklung: Übergang von Relais zu Röhren (1948), Transistoren (1954) und integrierten Schaltungen (1961). Entwicklung der noch heute benutzen Massespeichern Platte und Band, nach den zuerst verwendeten Trommelspeichern und Lochstreifen.

Auch in der Programmierung gab es in dieser Zeit die Fortschritte von Maschinensprache (1948) über Assembler (1951) zu höheren Programmiersprachen (FORTRAN 1954) und Einführung der strukturierten Programmierung (ALGOL 1960).

1962-1981: Einzug der Computer in Wissenschaft und Technik

In dieser Zeit fällt der Siegeszug einer Firma namens IBM, Computersysteme wurden zuerst in der Wissenschaft benutzt, dann auch zunehmend in der Wirtschaft. Die Computerfamilien Supercomputer (1966) und Minicomputer (1964) ergänzten das Leistungsspektrum der Großrechner nach oben oder unten, 1980erschienen die ersten Workstations. Am Ende dieser Periode waren Computer in vielen Bereichen verbreitet, aber die meisten Personen hatten keinen direkten Zugang zu Ihnen

1982-2001: Computer für Jedermann

Schon 1974 wurde der PC erfunden. Doch erst in den achtziger Jahren war er leistungsfähig und preiswert genug um als Heimcomputer, Spielkonsole oder IBM-PC auch breit in der Masse sich durchzusetzen. Der PC veränderte gesellschaftliche Kulturen und Gepflogenheiten - Handys wären ohne Mikrocontroller nicht vorstellbar. Computer findet man heute im Toaster und selbst der internetfähige Kühlschrank ist mit dem ersten Webserver auf einem Chip heute möglich. Ein Auto hat heute 30-100 Mikrocontroller und Prozessoren integriert, je nachdem welches Modell sie fahren.


Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.

© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Neues Hier werben Bücher vom Autor Buchempfehlungen Top 99