Home Computer Computer Geschichte Site Map counter

Die Intel Story

Einführung

Dies ist die Geschichte von Intel und ihrem Aufstieg zum größten und dominierenden Halbleiterhersteller. Intel hat in seiner Geschichte mehrmals die Marschrichtung geändert und dabei alle Konkurrenten hinter sich gelassen.

Die frühen Jahre

Robert Noyce und Gordon Moore (c) des Fotos by IntelWenn man an Computerfirmen denkt haben viele die Vorstellung von einer Firma die in einer Garage von einem genialen Tüftler gegründet wird. Etwas von diesem Klischee trifft auf Apple und Microsoft zu, jedoch nicht auf Intel. Intels Gründer Bob Noyce und Gordon Moore kostete es einen Anruf und sie hatten innerhalb eines Nachmittags das Gründungskapital von 2.3 Millionen Dollar zusammen.

Robert Noyce und Gordon Moore gehörten zu den acht Gründern von Fairchild Semiconductors 1959. Das Geld für die Firma bekamen sie von Morgan Fairchild, welcher damals schon gut mit Kameras verdiente. Zwei Jahre später übte er die Option aus die Firmengründer auszuzahlen und wurde zum Alleininhaber. Moore und Noyce waren auch keine Unbekannten. Noyce hatte bei Fairchild die Serienproduktion der integrierten Schaltung entwickelt und von Moore stammt sein berühmtes "Moorsches Gesetz". Als es Fairchild schlechter ging verschlimmerte sich das Betriebsklima und ein neues Management trieb jede Abteilung dazu ihren Profit zu minimieren wodurch praktisch alle langfristigen Entwicklungen zum Erliegen kamen weil sie zuerst Geld kosteten und erst später Profit einbrachten. Nach und nach verließen alle Gründer Fairchild und machten sich selbstständig.

Noyce und Moore waren 1968 die letzten. Beide hatten es zu diesem Zeitpunkt schon zu etwas gebracht. Noyce galt als Miterfinder der integrierten Schaltung (Sie wurde bei Texas Instruments erfunden, aber von Fairchild zum ersten Mal in Serie produziert) und hielt Patente im Halbleiterbereich. Moore hatte einige Fertigungsprozesse für LSI Bausteine entwickelt und galt als Miterfinder der MOS Technologie. 1968 war Noyce General Manager und Director of Reaearch and Development bei Fairchild und Moore Assistant Director of Research and Development.

Sie gingen nun daran eine neue Firma zu gründen. Das benötigte Kapital bekamen Sie von Arthur Rock der mit den zugkräftigen Namen der ehemaligen Fairchild Produktionschefs, ohne Unterlagen innerhalb eines Nachmittags das Geld von 15 Investoren zusammenbekam. Auch hatte Intel keine Probleme Mitarbeiter zu bekommen. Nach einem Interview in der Palo Alto Times wurden die beiden mit Bewerbungsschreiben überhäuft. Offizielles Gründungsdatum ist der 18.7.1968.

Der Name Intel steht für die Begriffe "Integrated Electronics". Damit ist auch die Produktpalette der Firma umschrieben. Sie wollte elektronische Bauteile auf Basis von integrierten Schaltungen herstellen. Abnehmer sollte die Industrie sein. Weder den Regierungsmarkt (Militär) noch den Endverbraucher wollte die Firma beliefern. Ziel war es gute Ideen recht schnell in neue Produkte umzusetzen, nicht neue revolutionäre Entwicklungen. "Intel delivers", die Marketing Philosophie steht sowohl für eine solide Vertriebspolitik die Produkte erst ankündigt wenn sie lieferbar sind wie auch für das Orientieren an der Nachfrage des Marktes. Im Jahre 1968 hatte Intel 12 Angestellte und Einnahmen von 2628 Dollar.

Noyce und Moore waren beide Techniker und wollten dies auch bleiben. Sie konzentrierten sich auf die Forschung und Entwicklung. Für die Geschäftsführung stellten Sie Andy Grove ein. Er galt als völliger Neuling im Geschäft. Er war vorher Professor und dozierte über Halbleiterschaltungen. Von ihm stammt auch ein Buch über Schaltungen, das als recht gut gilt. Zusätzlich wurde einige Monate später Bob Graham eingestellt. Grove war für die Produktion zuständig und Graham für den Vertrieb und das Marketing. Auf Dauer konnte jedoch nur einer das Unternehmen führen. Grove dehnte seinen Einfluss immer mehr aus und so verließ Graham einige Jahre später das Unternehmen. Graham drängte jedoch das Unternehmen sich auch mit Bipolartechnik zu beschäftigen und so bekam Intel den ersten Großauftrag. Honeywell suchte nach Subunternehmern die einen 64 Bit Chip in Bipolartechnik entwickelten und gab Intel weil es sich auch damit beschäftigte neben 6 anderen Firmen einen Entwicklungsauftrag über 10000 USD. Intel brachte es fertig den Chip rechtzeitig zu präsentieren und Intels erstes Produkt "Intel 3101" war geboren. Mit einem Auftrag von Honeywell über 10000 Stück pro Jahr für einen Stückpreis von 100 Dollar war auch die Firma auf Gewinnkurs.

Intels arbeitete seit Anbeginn aber an einer anderen Technik. Die Firma wollte Speicherchips herstellen. 1968 hatten integrierte Schaltungen schon in Großrechner Einzug gehalten, der Speicher bestand allerdings aus Magnetkernspeichern. Das waren kleine Eisenringe aufgezogen auf Drähte, welche die Information magnetisch speicherten. Magnetkernspeicher hatten einige praktische Vorteile wie zum Beispiel. das der Speicher seine Information auch nach dem Ausschalten behielt. Aber sie waren teuer in der Herstellung und langsam. Viele Firmen entwickelten damals Halbleiter welche die Ringkernspeicher ersetzen sollten und Intel selbst war sich nicht sicher, was die beste Technologie war. Zu Beginn verfolgte man 3 Technologien : Die MOS Technologie, Bipolar Technologie und Mehrchipmodule. Die Bipolartechnologie konnte sehr bald mit dem 3101 ein Produkt vorweisen. Die Mehrchiptechnologie erwies sich als zu aufwendig und die Entwicklung wurde bald eingestellt. Die MOS Technologie die jedoch anfangs als am vielversprechendsten eingestuft wurde, steckte nach Anfangserfolgen in einer Krise. Alle produzierten Chips waren defekt und Grove drängte schon darauf die Entwicklung einzustellen. Da nahm sich Moore des Problems an und untersuchte die Wafer mit dem Mikroskop und analysierte die Chips. Nach weniger als einem Monat hatte er das Problem gefunden: Beim Erhitzen und Abkühlen dehnten sich Silizium und Siliziumoxid unterschiedlich aus und es gab an den Ecken Risse. Dotierte man das Silizium und kühlte die Wafer stufenweise ab, so konnte man dieses Problem lösen. Der Weg war frei zu Intels erstem Chip, einem 256 Bit RAM, genannt Intel 1101. Gegenüber der Bipolartechnik erlaubte es die MOS Technologie viel mehr Bits pro Wafer unterzubringen. Intels 1101 wurde wenige Monate nach dem 3101 im Jahre 1969 vorgestellt. Wie beim 3101 gewann man Honeywell als Abnehmer. Im Jahre 1969 war Intels Belegschaft schon auf 106 angewachsen.

Das dynamische RAM

Intel 1103 (c) Intel coroprationTed Hoff, ein junger Stanford Absolvent hatte eine Speicherzelle entwickelt die einen völlig neuen Chiptyp erlauben würde. Intels 1101 speicherte ein Bit in 4 Transistoren. Im Prinzip war ein Speicherchip aus Transistoren aufgebaut wie ein Logikbaustein, nur waren die Transistoren in einem dichten Raster angeordnet. Ted Hoffs Speicherzelle bestand nur aus einem Transistor und einem Kondensator, der noch dazu in die Tiefe ging anstatt in die Fläche. So konnte man auf der gleichen Fläche 4 mal so viele Bits speichern. Es gab jedoch einen Nachteil: Im Silizium diffundieren dauernd Ladungen aus dem Kondensator und er musste etwa 1000 mal pro Sekunde aufgefrischt werden. Dieser zusätzliche Schaltungsaufwand war jedoch minimal im Vergleich zu der erhöhten Speichermenge und es war zu erwarten, dass der neue Chip, denn man Intel 1103 taufte wegen seines einfachen Aufbaus leicht in seiner Leistung gesteigert werden konnte. Es bedürfte aber Noyce persönlichem Auftreten um Honeywell von den Vorzügen des neuen Chips zu überzeugen. Doch es gelang und der 1103 wurde Intels wichtigstes Produkt. Die Technologie die hinter dem 1103 steckte nennt man DRAM, dynamisches RAM, weil die Information ohne Auffrischen verloren geht. Heute ist fast der gesamte Speicher der produziert wird DRAM Speicher. Erstmals war es auch möglich Halbleiterspeicher zu fertigen der den Ringkernspeicher preislich unterbieten konnte. Der im Oktober 1970 vorgestellte 1103 wurde anfangs für 10.24 Dollar verlauft, also einem Cent pro Bit. Im Vergleich dazu zahlte Honeywell für den 3101 über das 100 fache pro Bit. Die Bipolartechnologie die zwar sehr schnelle Speicher ermöglichte und 1969 noch den Hauptumsatz generierte verlor rapide an Bedeutung wurde bald eingestellt. Deutlich wird dies alleine an den Kapazitäten. Gegenüber dem nur ein Jahr vorher vorgestellten 3101 hatte der 1103 mit 1024 Bit die 16 fache Speicherkapazität.

Von 566.000 Dollar Umsatz im Jahre 1969 klettere der Umsatz 1970 auf 4.2 Millionen und Intel war in den schwarzen Zahlen. Der Intel 1103 öffnete der Firma aber auch ein neues Geschäftsfeld. Nach einer ersten Phase in der Intel 14 der 18 größten Computerhersteller als Kunden gewinnen konnte, wurde auch Kritik an dem 1103 laut. Im Vergleich zu anderen Halbleitern und erst recht zu den Kernspeichern brauchte der 1103 eine komplexe Infrastruktur. Er brauchte Treiberbausteine zum Verstärken des Stroms, 3 verschiedene Versorgungsspannungen und einen Refreshtakt. Während Intel mit Hochdruck an einer einfacheren Version des 1103 arbeitete entwickelten die Intel Techniker Ted Hoff und Stan Mazor ein Demosystem. Dieses beinhaltete alle Schaltungen die man brauchte um eine große Speicherbank aus 1103 Bausteinen in Betrieb zu nehmen. Damit gelang Intel unabsichtlich der Einstieg in ein neues Geschäftsfeld, nämlich der Speichersubsysteme. Größere Unternehmen begannen das Demo System in nennenswerten Mengen zu kaufen und bauten dieses als Speichersystem in ihre Computer ein. Intel gründete eine Abteilung für Speichersysteme die nun nicht einzelne Chips sondern ganze Platinen mit Speicher und ihren peripheren Bausteinen verkaufte. Für Intel hatte das zwei Vorteile. Zum einen waren diese Systeme viel teurer. Die Summen die bei einem Auftrag flossen waren viel höher als beim Kauf von Chips und so rentierten sich persönliche Besuche bei den Kunden viel eher. Zum zweiten konnte Intel in den Speicherbausteinen Chips verbauen die nicht die Spezifikationen für die Chips einhielten. Intels Chips waren z.B. für eine maximale Betriebstemperatur von +75 Grad spezifiziert. ein Speichersystem aber vielleicht nur für +55 Grad - eine Temperatur die in den gekühlten Großrechnern sowieso nie erreicht wurden. Intel konnte dem Kunden also Teile verkaufen die sonst in den Mülleimer wanderten und dieser zahlte dafür sogar noch einen Aufpreis.

Der Mikroprozessor

Wie viele junge Firmen nahm Intel auch Aufträge an einen Chip im Auftrag zu fertigen. Damit kam Geld in die Kasse. Die Firma Nippon Calculation Machine Corporation hatte Intel beauftragt die Schaltungen für eine Rechenmaschine ihrer unter dem Namen Busicomm vertriebenen Rechenmaschinen zu entwickeln. Ted Hoff, der Erfinder des dynamischen Speichers hatte eine Idee wie man die recht komplexen Schaltungen vereinfachen konnten. Er wollte die eigentlich komplexe Aufgabe mehrstellige Zahlen zu addieren, multiplizieren und dividieren in einfachere Aufgaben zerlegen die dann in einem Speicher abgelegt werden und dann nacheinander ausgeführt werden. Die Anzahl der benötigten Schaltungen konnte so von 8 auf 4 reduziert werden.

Doch Ted Hoff wurde bald in andere Projekte abgezogen. Dafür klopfte Frederico Faggin an Intels Türen. Faggin war auch bei Fairchild Ingenieur und musste sehen wie Fairchild eine Entwicklung nach der anderen verschlief und mehr und mehr Angestellte zu Intel wechselten. Erst 1970 konnte Faggin seinen Arbeitsplatz wechseln. Vorher war dies für einen frischen Einwanderer aus Italien nicht möglich. Als er zu Intel kam sollte die Entwicklung des Busicomm Rechners leiten. Am nächsten Tag war Besuch aus Japan angekündigt und es gab wegen anderer Projekte keinen Fortschritt zu vermelden. Masatoshi Shima konnte von Faggin jedoch überzeugt werden, dass er persönlich sich um das Projekt kümmern würde und der Chip rechtzeitig fertig wurde. Innerhalb von wenigen Monaten entwickelte Faggin zusammen mit dem etwas später hinzugekommenen Stan Mazor die vier Chips innerhalb von weniger als einem Jahr zur Serienreife. Das komplette System für Busicomm, das im November 1971 vorgestellt wurde umfasste ein ROM (Intel 4001) von 2048 Bit Größe, ein RAM (Intel 4002) von 320 Bit Größe, Ein I/O Baustein (Intel 4003) mit einem 4 Bit Schieberegister und dem eigentlichen Prozessor Intel 4004.

Inzwischen war aber die Konkurrenzsituation schlimmer geworden und in Japan kam man zu dem Schluss, dass sich die Busicom Maschine nicht rentierte, wenn man Intel 100.000 Dollar zahlte. Da Intel im Zeitverzug war bestand man auf einer Rückzahlung eines Teilbetrags. Intel machte einen Gegenvorschlag: Man war bereit 55000 Dollar zu zahlen wenn man die Rechte an dem Entwurf behielt und die Chips selbst verkaufen dürfte. Die Nippon Calculation Machine Corporation willigte unter der Bedingung ein, dass man keine Chips an andere Rechenmaschinenhersteller verkaufte.

Was war nun aber an dem ersten Mikroprozessor 4004 so besonders ? Im Prinzip funktionierte er wie ein großer Computer, nur war die gesamte Intelligenz auf einem Chip vereinigt. Die meisten sind sich einig, dass die große Leistung darin bestand sich von dem konkreten Problem der Busicomm Maschine zu verabschieden und dies abstrakter zu sehen. Der Intel 4004 war kein Chip für eine Rechenmaschine. Er war ein Chip der mit einem Programm im 4001 so tun konnte als wäre er eine Rechenmaschine, oder er konnte so tun als wäre er eine Ampelsteuerung. Durch einfaches Auswechseln des Programms konnte man den Chip in verschiedensten Bereichen einsetzen.

Der Intel 4004 wurde zu einem Produkt für Intel, jedoch nicht zum großen Kassenschlager. Der Grund war dass der 4 Bit Chip insgesamt zu wenig Leistung hatte. Sein ROM von 4 KByte Größe, sein kleiner Arbeitsspeicher von maximal 640 Byte und seine langsame Geschwindigkeit von 200 KHz erlaubten es nur für einfache Steuerungen einzusetzen. Daran änderte auch sein 1972 veröffentlichter Nachfolger 4040 wenig. Der große Erfolg kam sowohl für Intel wie auch andere Firmen später.

Warum Intel den Mikroprozessor nicht begrub, obgleich man vom 4004 nur etwa 100.000 Exemplare verkaufen hatte andere Gründe. Jeder Mikroprozessor war auf mindestens ein halbes Dutzend anderer Intel Bausteine angewiesen. Es belebte so das Geschäft in anderen Bereichen. Die Kunden die den 4004 kauften waren nicht die großen der Computerindustrie - für die war der Chip schlichtweg zu wenig leistungsfähig. Anstatt dem "Who is Who" der Computerbranche kauften viele kleine Unternehmen den Chip, für die wohl eher galt "Whos that ?". Aber diese kleinen Firmen die Steuerungen für Ampeln oder Geldzähler entwickelten konnten Wachsen und wollten vielleicht bei ihrem nächsten Projekt einen leistungsfähigeren Prozessor. Und vorgeprägt durch den 4004 würden sie diesen wohl bei Intel kaufen.

Das EPROM

EPROM Intel 1702Trotz aller Erfolge entsprach beim 1103 die Ausbeute nicht den Erwartungen Don Frohmann, der frisch über MNOS promoviert hatte nahm sich dem Problem an. Er vermutete dass sich bei den Halbleitern einige Gatter gelöst hatten und nun "schwebten". Als er die Ursachen dieses Versagens untersuchte baute einen Transistor mit einem schwebenden "Floating" Gate über einem normalen Control Gate. Als er durch das Control Gate einen Strom schickte entdeckte er dass diese Gatter den Strom halten konnten auch wenn man die Spannungsversorgung abschaltete.

Bei einer weiteren Untersuchung zeigte sich, dass man die Ladung wieder löschen konnte wenn man den Chip mit UV Licht bestrahlte. Was Don Frohmann entdeckte war eine Revolution, ein elektrisch beschreibbares ROM, welches auch wieder gelöscht werden konnte. Doch es war auch eine Herausforderung. Es war der größte Chip den Intel bis dahin entwickelt hatte, 3.5 mal größer als der größte Chip den man bis dahin produziert hatte. Damit sank aber auch die Produktionsausbeute ab. Weiterhin passte die Maske nicht mehr auf eine Folie und man musste 4 Stück aneinanderfügen und es gab bei der Produktion Probleme bei den Verbindungsstellen. Zuletzt brauchte der Chip ein Keramikgehäuse mit einem Quarzglas durch das man mit UV Strahlen den Chip löschen konnte.

Demgegenüber gab es keine Probleme die Industrie von dem Chip zu überzeugen. Es brauchte keine Überzeugungsarbeit wie beim 1103. Die Vorteile waren sofort sichtbar. Jeder konnte ein ROM sofort programmieren und zum Löschen einfach aus dem Sockel nehmen und unter eine UV Lampe legen. Jeder der vorher Code für ein ROM entwickelte wusste wie dies die Arbeit vereinfachte. Vorher musste man eine Maske für ein ROM zeichnen, mit dieser Chips belichten und diese dann in ein Gehäuse einbauen. Bei einem Fehler musste man eine neue Maske zeichnen und so fort. Das neue Produkt "Intel 1702" vereinfachte die Produktentwicklung enorm.

Nebenbei war das EPROM eine ideale Ergänzung zu dem Mikrocoprozessor. Die Intel 4004 welche in Steuerungen und Rechner eingebaut wurden hatten eine begrenzte Aufgabe. Das Programm war in einem ROM gespeichert und das RAM sehr klein. Der Großteil der RAM's ging dagegen an größere Computerhersteller welche sie in Großrechner einbauten. Diese hatten nur ein kleines ROM, welches den Rechner startete und das Betriebsystem von der Platte ins RAM lud.

Womit Intel jedoch nicht rechnete war ein zweiter Effekt. Bald nach der Einführung im Februar 1971 stiegen die Verkaufszahlen rasant an so dass das EPROM 1702 (mit 2 KBit Kapazität) den größten Teil des Umsatzes ausmachte und Intels Umsatz von 9 auf 66 Millionen katapultierte. Intel konnte auch ein Problem beim 1702 recht schnell lösen. Der Chip erwies sich sehr kapriziös was die Spannungen anging. Schwankten diese nur um wenige Prozent so fiel er aus. Eine Untersuchung zeigte, dass wenn er vorher mit einer hohen negativen Spannung behandelt wurde die Toleranz viel größer war und Intel brachte bald unter der Bezeichnung 1702a eine neue Version raus welche viel toleranter gegenüber den Spannungen war. Es dauerte über 2 Jahre bis die Konkurrenz aufschließen konnte. In dieser Zeit hatte Intel das Monopol auf das EPROM.

Mikroprozessoren der zweiten Generation

I 8080Der erste 8 Bit Mikroprozessor Intel 8008 war wiederum eine Auftragsarbeit, diesmal im Auftrag der Firma CTC. Der 8008 war jedoch mehr ein von 4 auf 8 Bit angepasstes Design und wies einen entscheidenden Nachteil auf: Er besaß nur 18 Anschlusspins und so wurden Datenbus, Adressbus und Steuerbus über einen gemeinsamen Bus übertragen und man brauchte sehr viele Zusatzbausteine um die Signale wieder zu entwirren. Die Firma CTC war mit dem Design nicht zufrieden und aus dem gleichen Grund wurde der Chip auch kein kommerzieller Erfolg. Nach dem Erscheinen 1972 konzentrierte sich die Firma wieder auf andere Produkte.

Faggin wollte nach dem 4004 schnellstmöglich einen neuen Chip entwickeln. Jedoch sah man beim Intel Management keine große Zukunft für diese Bauteilserie. Sowohl 4004 und 4040 wie auch der 8008 waren nur mäßig erfolgreich und das meiste Geld verdiente man mit EPROM und DRAM. 9 Monate musste Faggin warten bis er einen neuen Chip entwerfen dürfte. Er plante ursprünglich das 8008 Design in der neuen NMOS Technologie umzusetzen, die doppelt so hohe Schaltgeschwindigkeiten ermöglichte. Zugleich ermöglichte eine neue Gehäuseform mehr Anschlusspins unterzubringen und so die gemeinsame Benutzung eines Busses für Daten, Adressen und Steuersignale abzuschaffen. Sehr bald erkannte er aber die Unzulänglichkeiten des 8008 Designs und ging daran einen komplett neuen Mikroprozessor mit neuem Befehlssatz und neuen Möglichkeiten zu schaffen. Dies war der 8080, der 1974 erschien. Kurz drauf verließ Faggin Intel und gründete seine eigene Firma Zilog. Sie sollte bei den 8 Bit Bausteinen Intels größter Gegner werden und brachte 1976 den Z80 Prozessor heraus, der ein verbesserter 8080 war und der den Intel 8080 und seinen Nachfolger 8085 bald vom Markt verdrängte.

Auf dem 8080 basierten die ersten Mikrocomputer und sein Ruf ist heute legendär. Allerdings hatte man zu lange mit der Entwicklung gezögert und Motorola brachte nur wenige Monate später den 6800 Prozessor heraus, der in vielem einfacher als der 8080, sowohl in der Programmierung wie auch dem Einsatz. Der 8080 brauchte 3 Versorgungsspannungen, der 6800 nur eine, für den 8080 war als zusätzlicher Baustein der Buscontroller 8228. Der 6800 benötigte keinen Buscontroller. Allerdings hatte Intel eine bessere Produktpalette um den Prozessor und der Vertrieb war besser, so dass man trotz des technisch unterlegenen Bausteins kommerziell erfolgreich war.

Obgleich der 8080 bis zu 10 mal schneller als sein Vorgänger war, sah man bei Intel nicht die Nutzungsmöglichkeiten die der Chip eröffnete. Als Ingenieure vorschlugen nicht nur ein Entwicklungskit für den Prozessor zu fertigen sondern einen kompletten Computer, meinte man beim Management es gäbe dafür keinen Markt. Mit größeren Computern konnte der 8080 noch nicht mithalten und wozu braucht eine Privatperson einen kleinen Computer ? Als Gary Kildall Intel eine erste Version seines Betriebssystems CP/M zum Kauf anbot schlug man dieses aus dem selben Grunde aus. Wenige Jahre später lief es auf fast jedem Computer mit einem 8080 Prozessor.

Microcontroller

Anders als heute landeten die meisten Mikroprozessoren die Intel Mitte der siebziger Jahre produzierte nicht in Computern, sondern in Steuerungen. Weiterhin begannen zu dieser Zeit Firmen erstmals darüber nachzudenken Mikroprozessoren in Produkte einzuführen die bislang keinerlei Elektronik enthielten. So vergab Ford den Entwicklungsauftrag für eine Lambda Sonde. Der Prozessor hatte nur eine sehr einfache Aufgabe : Laufend einen Sensor abzufragen der den Sauerstoffgehalt des Verbrennungsgases zu messen und danach die Ventile zum Motor zu öffnen oder zu schließen.

Für eine solche Systeme waren die bisherigen Prozessoren aber nicht gut geeignet. Obgleich ein Prozessor nur wenig RAM und ROM brauchte musste man ein System aus einigen Chips zusammenstellen. Alle zusammen saßen auf einer Platine und das System war so teurer und empfindlicher als nötig. Intel führte 1976 den 8748 ein. Einen Prozessor mit EPROM, einem kleinen RAM, Pheriphierebausteinen und I/O Bausteinen auf einem Chip. Diesem folgte sehr bald die verbesserte Version 8048. Er anders als der 8748 kein EPROM.

Noch erfolgreicher war die 1980 eingeführte 8051. Zusammen mit seinem CMOS Nachfolger 80C51 der 1983 erschien wurde er zu einem der populärsten Microcontroller. Allerdings unterschätzte Intel auch hier den Markt. Der 8096, der 1984 erschien war ein 16 Bit Microcontroller mit 120.000 Transistoren war er viermal komplexer als ein 8086. Den Markt der solche Rechenleistung nachfragte gab es aber nicht. Die meisten Kunden reichte ein 80C51 vollkommen aus. Im Jahre 1988 folgte mit dem Intel 80960 ein 32 Bit Mikrocontroller. Er wurde wieder ein Erfolg. Obgleich der Mikrocontrollermarkt viel größer als der von Mikroprozessoren ist (1988 wurden weltweit 486 Millionen Mikrocontroller, aber nur 89 Millionen Mikroprozessoren verkauft) war hier nicht soviel zu verdienen wie bei den Prozessoren. Abnehmer waren preisbewusster und kauften große Stückzahlen und drückten so die Preise zudem entfiel das Groß auf die einfachen 8 Bit Bausteine, bei denen es zahlreiche Mitbewerber gab.

Die Zwischenlösung

Im Jahre 1976, als mit dem Z80 und 6502 zwei neue Prozessoren erschienen und der Nachfolger des 8080, der 8085 sich nicht richtig durchsetzen konnte erkannte die Firma das Sie vom Vorreiter ins Mittelfeld abgerutscht war. Betrachtete man alle Intel Prozessoren in der Retrospektive, so waren sie zwar alle die ersten auf dem Markt, aber jeder hatte Macken welche den Einsatz in der Praxis schwer machten und nun gab es Konkurrenz die diese Fehler nicht machte.

So ging man an das Design eines Superchips, der intern unter der Bezeichnung 8800 lief. Gegenüber dem 8080 war er ein großer Sprung. Er arbeitete mit 32 Bit, verfügte über Mechanismen Fehler zu erkennen. Er kannte mehrere Datentypen und hatte einige objektorientierte Ansätze. Aber er war daher so Komplex, dass es Jahre dauern würde ihn zu entwickeln. Man erkannte bei Intel das Problem das sich nun auftat: Zilog und Motorola entwickelten 16 Bit Prozessoren und Texas Instruments und National Semiconductor hatten solche Chips schon auf dem Markt. Würde man erst in einigen Jahren einen Prozessor auf den Markt bringen, so hätte man alle Kunden bis dahin an andere Firmen verloren.

Es galt recht schnell eine Zwischenlösung zu entwickeln. Man überlegte wie man aus dem 8080 einen 16 Bit Prozessor machen konnte. Innerhalb von 10 Wochen fand man einen Weg. Ein wichtiger Punkt war die Abwärtskompabilität. Der 8086 brachte zwar einige neue Befehle wie für die Multiplikation oder Blockbearbeitung, neue Adressierungsmodi (indexsequentielle). Es gab jedoch einen Großteil der alten Befehle des 8080 und dieselben Register. Ein einfaches Übersetzungsprogramm konnte ein 8080 Programm in ein 8086 Programm übersetzen. Eine Schwäche war jedoch dass man eine ungewöhnliche Adressierungsart verwendete. Die Register waren wie beim 8080 16 Bit breit. Damit der Prozessor jedoch mehr Speicher ansprechen konnte als sein 8 Bit Kollege hängte man an die 64 Bit Adresse 4 Bits an. Die Folge war dass der 8086 1 Megabyte RAM ansprechen konnte jedoch nur in Bereichen von 64 KByte die man wie ein Fenster über den Adressraum verschob.

Der Intel 8086 erschien im Mai 1978 etwa 1 Jahr vor dem Motorola 68000. Wieder war Intel etwas schneller, wenn auch nicht der erste.

Operation Crush

Hätte man im Jahre 1979 Intels Geschichte Revue passieren lassen, so hätte man Intel als eine höchst innovative Firma gesehen. Intel hatte das DRAM, das EPROM und den Mikroprozessor erfunden. Sie war eine der Firmen die als erste statische RAMS auf den Markt brachten.

Intern gesehen ging es Intel jedoch nicht so gut. Zum einen gab es Qualitätsprobleme bei der Produktion. Es gab ganze Ladungen von Entwicklungssystemen die mit dem Vermerk "DOA" (Death on Arrival) zurückkamen und bei einem Test zeigte sich, das 60 % aller produzierten Systeme defekt waren und 91 % einen Dauerlauf von einer Woche unter erschwerten Bedingungen (Burn In Test) nicht überstanden.

Intels Produkte waren bislang zwar die ersten gewesen, jedoch oftmals umständlich im Einsatz gewesen. Sobald andere Firmen den Vorsprung aufholten schwand der Marktanteil von Intel. Das fiel nicht auf solange man immer eine neue Generation auf den Markt brachte und erster war. Sobald aber die Konkurrenz zeitgleich auftrat hatte der Kunde die Auswahl. Bei den Speicherchips hatte Intel beim 1 K Chip einen technologischen Vorsprung von 1 Jahr. Schon beim 4 K Chip war AMD erster und beim 16 K Chip war Intel schon von mehreren Firmen überholt worden.

Dazu kam dass Grove den Außendienst anwies sich nur Mühe zu geben, wenn ein großer Auftrag heraussprang. Bei kritischen Auftraggebern war bisher Noyce eingeflogen und er verstand es, charmant die Kunden zu überzeugen. Doch 1979 hatte sich Noyce aus der Firma zurückgezogen.

Bei den Mikroprozessoren bekam Intel nun den Gegenwind zu spüren. Kunden wollten keinen 8086. Sie sagten der 68000 wäre schneller, einfacher zu programmieren und zu handhaben. Nun rächte sich die hochnäsige Art in der Intel bislang ihre Produkte nach dem Prinzip "Vogel friss oder stirb" vertrieben hatte. Kunden wollten keinen 8086. Als die Zentrale Außendienstmitarbeiter nach ihrer Meinung über den 8086 fragte erntete Sie nur Gelächter und Intel war von den Mikroprozessoren an die letzte Stelle gerückt inzwischen sogar von Faggins kleiner Firma Zilog überholt worden.

Es galt Intel wieder an die spitze zu bringen. Hauptkonkurrent war Motorola. In einer Krisensitzung wurde im Mai 1979 ein Konzept erarbeitet und dann über 100 Außendienstmitarbeitern als "Operation crush" präsentiert. Ziel war es Motorola platt zu machen. Dazu konzentrierte man sich auf die Stärken von Intel. Der 8086 mochte zwar nicht so leistungsfähig sein. Doch sollten die Kunden ihren Blick auf die Systemebene richten. Dabei konnte der 8086 punkten:

Das letzte war Hauptziel der Operation Crush. Damals war der Markt noch anders als heute und beide Prozessoren, der 8086 und 68000 neu. Ein potentieller Interessent musste nicht nur den Prozessor kaufen, sondern das ganze System selbst entwerfen und die Software entwickeln. Für einen potentiellen Kunden war nicht nur die Leistung des Prozessors wichtig, sondern wie einfach der Systemaufbau wäre. Wenn Intel über 1000 Konzepte innerhalb eines Jahres vorweisen konnte (darunter so extravagante wie die Bestimmung der Fruchtbarkeit durch einen 8086 im B.H.) so schien es als wäre dieser Prozessor weit verbreitet und vielleicht konnte man von einem der Konzepte Teile übernehmen und so Entwicklungsarbeit sparen.

Das zweite war ein Katalog mit 100 Ankündigungen für neue Produkte welche die Botschaft vermittelten "Wenn Du bei Intel bleibst, dann kannst Du deine Produkte laufend verbessern und dies bei Komptabilität". Nur: Keines der Produkte befand sich in der Entwicklung, die meisten noch nicht einmal auf dem Papier. So gab es das Projekt eines Zusatzchips für den 8086. Dieser sollte den 8086 in Fließkommarechnungen wo er besonders schlecht gegenüber dem Motorola 68000 aussah so schnell machen, dass er 5 mal schneller als ein 68000 war. Auch hier war die Botschaft: Wenn Du beim 8086 bleibst kannst Du bald diesen Wunderchip einsetzen und deine Anwendungen sind auf den Schlag 30 mal schneller. Lieferbar war der Prozessor erst im Jahre 1983 als 8087 Koprozessor und er war 10 mal teurer als ein 8086.

Operation Crush war ein voller Erfolg. Die Kunden blieben bei Intel und Ende 1980 war Motorolas Marktanteil auf 15 % gesunken.

IBM's Wahl

IBM PCIBM hatte bislang Intel weitgehend ignoriert. Als einziger Computerhersteller baute IBM selbst die Chips auch wenn sie teurer als Intels Produkte waren. Als IBM aber den Markt der kleinen Computer betreten wollte kam es an Intel und anderen Mikroprozessorherstellern nicht vorbei. Ein PC nur gefertigt mit IBM Bauteilen wäre zu teuer gewesen.

Warum IBM Intel wählte ist bis heute nicht ganz geklärt. Es spielten sicher eine Reihe von Faktoren eine Rolle. Zum einen hatte die Operation Crush Intel zum Marktführer gemacht. Es war sicher besser vom Marktführer einen Chip zu kaufen als von Motorola mit ihrem nun geringen Marktanteil. Dazu kam dass IBM schon mit dem BM System/23 DataMaster einen Computer auf Basis des 8085 auf den Markt gebracht hatte, aber nicht sehr erfolgreich war. Daneben bot Intel seit Ende 1979 den 8088 an, eine Version des 8086 mit einem 8 Bit Datenbus. Dadurch sanken die Kosten für ein System, da 8 Bit Pheripheriebausteine mittlerweile sehr preiswert waren. Ein Nebeneffekt des 8088 war, das er nochmals langsamer als der 8086 war. Dies klingt unglaubwürdig, doch in der Firmenpolitik von IBM war wichtig dass der PC nicht zu einer internen Bedrohung von IBM's größeren Rechnern wurde, also sich in der Rechenleistung von diesen deutlich abhob.

IBM stellte aber Forderungen. Die wichtigste war das IBM nicht abhängig von einem Produzenten sein wollte. Ein Produzent hätte den Preis des Chips diktieren können. AMD sollte nach IBM's Willen Zweitproduzent werden. AMD war ein Jahr nach Intel gegründet worden und schon damals weniger als halb so große wie Intel. AMD hatte zahlreiche eigene Produkte entwickelt, war aber auch Zweitproduzent. Intel vergab ungern Lizenzen. Nach Grove's Ansicht waren Zweitproduzenten Schmarotzer die reich damit wurden dass die Intels Chips kopierten. AMD hatte schon eine Lizenz für den 8086 Prozessor erhalten, als Intel dringend den AMD 2900 Bitslice Prozessor brauchte um Zilog Paroli zu bieten. Jerry Sanders, AMD's Chef roch den Braten und handelte ein für ihn großzügiges Geschäft aus, das nicht nur den 8086 Prozessor einschloss sondern auch weitere Entwicklungen der nächsten Jahre. Er bekam ein Technologieaustauschprogramm über 10 Jahre.

Als IBM den IBM PC im August 1982 auf den Markt brachte machte dies nicht nur die bisher dominierenden 8 Bit Computer zu Auslaufmodellen sondern auch Intel zum Marktführer.

Problem Speicher

Intel erfand zwar das DRAM, doch andere US Firmen verstanden es besser die Entwicklung aufzunehmen und weiterzuführen. Schon bei der 4K Generation hatten AMD und MOSTEK Intel überholt. In den folgenden Jahren nahm die Zuwachsrate der DRAM Sparte zu, doch die Zuwachsraten wurden immer geringer und erreichten 1978 einen Höchststand von 41 Millionen $ um danach abzufallen. 1979 hatte Intel am 16 K RAM Segment nur noch einen Marktanteil von 5 Prozent.

Die Bedrohung kam jedoch nicht von der US Konkurrenz sondern aus Japan. 1979 stellte Fujitsu das erste 64 K RAM vor und schockte die US Konkurrenz. Intel war noch mindestens 2 Jahre von der Serienreife ihres 64 K Chips entfernt. Als dieser 1982 erschien waren die Preise schon soweit gefallen, dass man wenig Gewinne damit machen konnte. Einige Monate nachdem Intel ihren 64 K Chip auf dem Markt hatte brachte aber Hitachi schon das 256 K RAM auf den Markt.

Japan hatte mehrere Vorteile auf seiner Seite. Zum einen optimierten sie von Anfang an den gesamten Prozess. Dies endete nicht am Firmengelände sondern umfasste auch Lieferanten und Subunternehmer. Die Belegschaft verließ selten ihren Arbeitgeber, während im Silicon Valley Intel nie sicher sein konnte ob ein Arbeiter nicht zur Konkurrenz abwanderte weil er dort einen Dollar mehr pro Stunde verdiente (was bei Intels Löhnen knapp über dem gesetzlichen Mindestlohn nicht selten vorkam). so gab es eine Menge Know-How bei den Beschäftigten die man zudem viel besser disziplinieren konnte wie zum Beispiel. Make up in Reinräumen verbieten oder anzuordnen dass alle Angestellten gemeinsam zur Toilettenpause den Raum verließen (und damit weniger kontaminierte Außenluft durch das Öffnen der Türen eindringen konnte).

Vor allem aber wollten die Japaner das Geschäft beherrschen und unterboten laufend die US Preise. Die drei führenden japanischen Chiphersteller waren NEC, Hitachi und Fujitsu. Alle drei Großkonzerne bei der die Chipsparte nur ein Zweig des Unternehmens war. Wenn man dort keinen Gewinn machte dann kam er woanders her. Intel und andere Chiphersteller wie MOSTEK und Texas Instruments bewogen das US Justizministerium eine Anti-Dumping Verordnung zu erlassen. Damit konnte man die Preise stabilisieren, doch an der teuren Intel Produktion änderte dies nichts.

Moore sah die DRAM wichtig für die Technologie an. Ein DRAM Chip ist relativ einfach aufgebaut und wenn Intel eine neue Technologie entwickelte dann zuerst bei den RAM Chips um sie danach auf Mikroprozessoren oder andere Bausteine zu übertragen. Ed Gelbach Marketing Chef sah das ganze Sortiment und befürchtete Kunden zu verlieren wenn man keine DRAM mehr herstellte. Doch 1984 war die Krise unübersehbar. Die DRAM Sparte machte nun Verluste und Moore und Grove fassten schweren Herzens die Produktion einzustellen. Es dauerte noch bis 1986 bis man dies umgesetzt hatte. Danach existierte die Sparte die Intel groß gemacht hatte nicht mehr.

Monopole

Intel lebte schon lange nur vom 8086. Allerdings gab es neben AMD noch etwa zehn weitere Lizenznehmer für die Produktion. Lizenzen gab es als der Chip neu war um die Marktposition zu stärken, Viele der Firmen produzierten nicht nur den Chip sondern auch Geräte die ihn einsetzten, wie z. B. Siemens die sehr lange Lizenznehmer waren. Lizenzen gab es auch um nach IBM's Wahl überhaupt die rapide angestiegene Nachfrage decken zu können. Davon wollte Intel weg. Bei den 1982 erschienen Nachfolgern 80186 und 80286 gab es schon bedeutend weniger Lizenzen. AMD musste einer Lizenz pro Prozessor zustimmen um noch Lizenznehmer zu werden. Dies bedeutete bei den bei Prozessoren automatisch sinkenden Preisen einen immer höheren Anteil am Gesamtpreis. AMD hoffte auf das 10 jährige Lizenzabkommen, dass Intel im Gegenzug AMD Bausteine wie einen Festplattencontroller und einen Grafikcontroller in Lizenz fertigen würde. Doch Grove und Moore verfolgten einen knallharten Kurs : Erstens AMD in Sicherheit wiegen dass es auch in Zukunft alle neuen Chips in Lizenz fertigen dürfte (was man aber ab der 80386 Generation einstellen wollte) und zweitens keine AMD Produkte übernehmen.

Intel wollte das Monopol für ihre Architektur. Es gab nur ein Problem: Diese war bekannt. Jeder konnte einen Chip öffnen die Schichten stück für Stück abtragen und abfotografieren und daraus eigene Masken produzieren. Es gelang Intel eine Gesetzesinitiative zu veranlassen welche Masken und den Microcode patentierbar machten. Damit konnte Intel ab 1984 gegen verschiedene Plagiate vorgehen. Zum Präzedenzfall wurde NEC. NEC hatte die Prozessoren V20 (8088 kompatibel) und V30 (8086 kompatibel) entwickelt. Diese waren nicht kopiert sondern NEC Ingenieure hatten ein eigenes Microcodeprogramm geschrieben das nichts mit Intels Programm zu tun hatte. Dadurch waren die Chips sogar schneller als ihre Originale. Zuerst kündigte Intel an keinen Produzenten mehr zu beliefern der die V Chips von NEC nutzte. Daraufhin verklagte NEC Intel. Der Prozess musste nur klären: Hatte NEC den Microcode geklaut oder nicht. Bald nach dem Prozessbeginn 1984 war abzusehen das NEC verlieren würde. Die Anwaltskanzlei die NEC vertrat hatte nun ein Idee. Wenn NEC den Prozess verlor, dann dürfte sie ihren eigenen Microcode nicht mehr verwenden. Sie dürfte aber einen "sauberen" Microcode verwenden. Sauber hieß, der Code musste ohne Kenntnis des Intel Codes hergestellt werden. Sie fand zwei Ingenieure die dies machten. Einer untersuchte den Intel Code und extrahierte die Spezifikationen. Diese wurden an die Kanzlei übergeben und diese gab sie einem anderen Programmierer, der daraus neuen Microcode programmierte. Alle Rückfragen wurden ebenfalls von den Anwälten gefiltert. So hatte NEC nun eine Möglichkeit V Chips herzustellen. Erstaunlicherweise wurde der Code aber nie eingesetzt, er diente als Beweismittel. Der Code war dem Intel Code noch ähnlicher als der von NEC. Dies liegt in der Natur der Sache: Wenn ein Problem genau spezifiziert ist dann kommen unterschiedliche Personen oft zu denselben Lösungen. Ganz einfach deswegen weil es nur wenige Lösungen gibt. Intel konnte dagegen nicht beweisen, dass der NEC Code geklaut war und verlor den Prozess.

Damit gab es aber für AMD und andere einen Weg legal einen Intel Prozessor nachzubauen. Intel hatte nun nur noch eine Chance: Die Zeit. Seitdem war die Entwicklung relativ langsam verlaufen. Zwischen 8088 -> 8086 -> 80286 -> 80286 lagen jeweils 4 Jahre. Nun beschleunigte Intel die Entwicklung um möglichst viel zu verdienen wenn der Prozessor noch von keinem nachgebaut werden kann und ihn dann nach kurzer Zeit als veraltet zu erklären.

Im Jahre 1987 prozessierte AMD gegen Intel weil es die Lizenz nicht für den 80386 Prozessor bekam. Auch hier verlor Intel den Prozess 1990, doch rechtsgültig wurde das Urteil erst 1992. Auch wenn Intel klar war, dass es Prozesse verlor machte dies nichts aus. Es ging nicht darum Prozesse zu gewinnen sondern Konkurrenten vom Markt abzuhalten und wenn Prozesse Jahre dauerten, so war dies ein effizientes Mittel.

Problem 80386

80386Ein Problem beim 80386 war dass IBM diesen Prozessor nicht einsetzen wollte. Die Rechenleistung des 80386 war schon zu nah an den Computern die IBM für ein vielfaches eines IBM PCs verkaufte. Intel wollte aber nicht nur mit dem 80386 mehr verdienen als mit dem 80286 sondern es gab auch wieder die Konkurrenz von Motorola. Der 68000 steckte in Apples Macs und neue Computer mit dem 68000 von Atari und Commodore waren angekündigt. Alle diese Rechner hatten grafische Oberflächen und dagegen sah ein IBM AT aus wie ein Volkswagen gegenüber einem Ferrari. Punkten konnte ein PC jedoch mit der Rechengeschwindigkeit die ein 80386 hatte.

Compaq wagte den Sprung und baute einen PC der kompatibel zum alten Standard war aber den 80386 Prozessor einsetzte. Bald fanden sich auch noch andere Firmen die nachfolgten. Da war nur noch die Softwareseite. Intel bot größeren Firmen Hilfe an bei der Portierung von Software auf den neuen Prozessor. Alle machten mit nur eine Firma nicht: Microsoft. Wann immer Intel einen Verbesserungsvorschlag hatte wurde er abgeblockt. Microsoft sah umgekehrt die Architektur des 8086 als den größten Schwachsinn der je entwickelt wurde an. Vielleicht hatte Microsoft auch nicht vergessen dass Intel nach einer Prüfung der Firma beschloss, dass man diesem Haufen Irrer keine Unterstützung gewährte. Dies war als Microsoft IBM dazu bewegen wollte ihr DOS zu kaufen und man Intel nach Unterstützung fragte.

Microsoft machte aber Intel noch in anderer Beziehung Probleme : Ihr Windows war zum damaligen Zeitpunkt mehr ein Scherz als ein ernsthaftes Programm. Solange machte es für die Anwender aber keinen Sinn die teuren 80386 Computer zu kaufen. Unter DOS waren auch 80286 Rechner schnell genug. Intel reagierte mit einer Kampagne. Sie führten eine Version des 80386 ein welche nur einen 16 Bit Bus hatte. Dieser Chip konnte 32 Bit Software verarbeiten (es gab nur keine) war aber nicht schneller als ein 80286. Unter dem Motto "3 ist mehr als 2" konnte man die Kunden jedoch überzeugen dass es ein besserer Chip war, auch wenn sie in Praxis keine schnelleren Rechner hatten.

Diese Werbekampagne war ein Wendepunkt im Unternehmen. Bislang sah sich Intel als Lieferant für Computerhersteller. Nun wandte sich Intel erstmals an den Endverbraucher. Der Endverbraucher sollte nach Prozessoren des Typs 386 SX nachfragen und damit deren Absatz ankurbeln. Im Prinzip sollte der Konsument seine Kaufentscheidung davon abhängig machen welches Prozessor in seinem Computer steckte. Diese Rechnung ging auf und ebnete schon 1989 den Weg zu der Intel Inside Kampagne die 1991 begann.

Im Jahre 1990 hatte AMD nach eineinhalbjähriger Entwicklungsarbeit endlich seinen 386 Prozessor hergestellt. AMD hatte sich auf das 1982 verhandelte Lizenzabkommen verlassen und später darauf, dass Intel nach dem 1987 begonnen Prozess AMD wieder als Zweitproduzent einsetzen würde. So hatte man erst sehr spät mit der Produktion eines eigenen Prozessors begonnen. Der Am386 war durch Reverse Engineering entstanden, patentrechtlich also sauber. Dagegen konnte Intel nichts machen. Doch man werte sich gegen die Verwendung der Ziffer "386" in der Bezeichnung. Doch man verlor wieder vor Gericht. Die Richter erkannten dass die Ziffer "386" für eine Architektur stände und Intel deren Verwendung in der Industrie ja selbst forciert hatte, indem er sie zum Namensbestandteil von Computern machte ("Compaq 386"). Als Folge beschloss man dass zukünftige Prozessoren einen marktrechtlich geschützten Namen erhalten sollten. Für den 486 war dies zu spät, doch die übernächste Generation erhielt die Bezeichnung "Pentium".

Bedrohung RISC

Nach dem Ausstieg aus dem Speichergeschäft waren 1989 die EPROMS dran. Intel fand in Samsung einen Produzenten der EPROMS für Intel fertigte. Dabei zeigte sich was man schon 10 Jahre vorher bei den DRAMS sah: Samsung konnte EPROMS zur Hälfte der Stückkosten von Intel produzieren. Durch die Beschränkung auf Prozessoren die man mit enormen Gewinnspannen verkaufen konnte war man in der Fertigungstechnik weit hinter der Konkurrenz. Ein industrieinternes Benchmarking ordnete 1990 Intels Herstellung zusammen mit Taiwan auf den letzten Platz ein.

Intel konnte das egal sein, solange man nur Prozessoren verkaufte und hier ein Monopol hatte. Doch Ende der achtziger Jahre gab es neue Tendenzen in der Industrie. Von den Universitäten kam eine Idee zu den Chipherstellern. Bei einem typischen Mikroprozessor wie dem 80386 benutzte die Software nur einen Teil der Befehle häufig und viele überhaupt nicht. Dies entsprach der 80:20 Regel, die man auch in anderen Bereichen kennt. Konkret: 80% der Instruktionen deckten nur 20% des Befehlssatzes ab. Universitätsinstitute sahen dies als Gelegenheit einen Prozessor zu designen der viel weniger Befehle hatte, aber dafür einfacher aufgebaut war und auch von einem Uni Institut gebaut werden konnte, weil er technisch nicht so aufwendig ist.

Es entstanden Firmen wie MIPS aus solchen Uni Instituten und auch größere Prozessorhersteller wie SUN übernahmen dieses Konzept das man RISC nannte (RISC : Reduced Instruction Set Computer). Damit erwuchs eine neue Konkurrenz. Mehr noch Microsoft entwickelte ein neues Betriebssystem namens Windows NT, welches nicht nur auf Intels 80x86 Reihe sondern auch auf anderen Computern laufen würde. Damit hätte der Kunde wieder die freie Wahl und könnte sich für einen leistungsfähigeren oder günstigeren Prozessor entscheiden. Zudem betonten einige Experten von Microsoft, dass RISC auch für die Softwareentwicklung Vorteile bringe. Ein Compiler hätte nur einen kleineren Befehlssatz zu unterstützen, damit wird ein Compiler einfacher zu programmieren und die Chance, dass sein Code in der Geschwindigkeit handoptimiertem Maschinencode sich nähert steigt an.

Intel reagierte auf diese Tendenzen indem sie zum einen RISC Elemente in die Architektur des Pentium integrierten. Die Komplexität des Chips stieg dadurch stark an. Doch man konnte zumindest in der Geschwindigkeit mit RISC mithalten. Die Firma entwickelte 1989 sogar einen reinen RISC Chip den Intel 860. Doch er konnte sich nicht auf dem Markt durchsetzen, weil er relativ schwierig zu programmieren war.

Prozesse

Ein Weg das Monopol zu wahren, waren für Intel Prozesse. Ende der achtziger Jahre, Anfang der Neunziger verklagte Intel alles und jeden. Alleine AMD, Intels größten Gegner kosteten die Prozesse 40 Millionen USD an Gerichts und Anwaltskosten pro Jahr. Intel verklagte nicht nur Konkurrenten sondern auch Mitarbeiter, wenn diese sich selbstständig machen wollten. So wollte die Firma schon im Keim die Entstehung einer Konkurrenz verhindern. Dabei wurde getrickst und gefälscht wo es nur ging. Als ein Intel Mitarbeiter sich selbstständig machte und die Firma ULSI gründete um einen 387 Coprozessor Clone zu entwerfen bekam Intel über Mitarbeiter des Sicherheitsdienstes die Bekannte bei der Polizei hatten Einsicht in die Akten und konnte den Prozess (den sie nicht gewinnen konnten) solange zu verschleppen bis ULSI mit ihrem 387 kaum Gewinn machten, weil die Preise gefallen waren.

Als AMD für ihren 287 den Microcode des 286 übernahmen (wozu Sie nach einem Vertrag von 1977 berechtigt waren) prozessierte Intel gegen AMD, weil in den alten Dokumenten von "Mikrocomputer" die Rede war. Dieser Begriff war damals synonym mit dem für Microcode, aber Ende der achtziger Jahre verstand jeder darunter einen kompletten Computer). So sah der Prozess sehr schlecht aus und AMD verlor in der ersten Instanz. Als dann Intel wegen der Verhandlung der Lizenzforderung die Prozessunterlagen zuschicken musste stellte ein AMD Mitarbeiter fest, dass es ein Dokument zweimal gab. Einmal mit neuerem Datum und vollem Text und einmal älteren Datums ohne eine Passage in der der Begriff "Microcode" vorkam: Intel hatte die Beweismittel gefälscht und damit konnte AMD das Urteil anfechten und gewann.

Noch findiger war Intel als man das Patent '338 aus der Schublade herauszog. Dieses hatte Intel an AMD lizenziert und es patentierte die Verwendung eines Mikroprozessors in einem Computersystem und die Anbindung an den Speicher. Um AMD zu schaden kam man auf eine völlig neue Auslegung. Zwar dürfte AMD die Technologie nutzen die durch '338 abgedeckt war und die allen Prozessoren zugrunde liegt. doch wie sah es bei den Kunden von AMD aus ? Sie hatten keine Lizenz für '338. Man bot allen Computerherstellern eine kostenlose Lizenz von '338 an, so dass diese nach wie vor Intel Prozessoren in ihre Rechner einbauen konnte. Doch die Industrie roch den Braten: Wer eine Lizenz annahm erkannte den Anspruch von '338 an und dürfte keine AMD Prozessoren mehr einbauen. Die Industrie mauerte und so kam Intel nicht durch. In dem Prozess waren zwei Dinge von Bedeutung. Zum einen gab es im Patentrecht eine Ausnahme, wonach wenn ein Teil für sich alleine keinen Nutzen hat sondern nur im Zusammenspiel mit einem anderen Teil funktioniert der Hersteller des Gesamtwerks keine Lizenz des Patentinhabers braucht. Nun arbeiten Mikroprozessoren aber nur in Computern und für sich alleine sind sie wertlos. Zum zweiten lieferte Intel selbst einen weiteren Grund. Die kostenlose Überlassung einer '338 Lizenz war eine verbotene Handlung nach den Anti-Thrust Gesetzen, denn sie verknüpfte ein gewünschtes Produkt das der Kunde vielleicht haben wollte (die kostenlose Lizenz) mit dem Verkauf eines kostenpflichtigen Produktes, dass der Kunde eventuell nicht wollte (den Intel Prozessoren). So musste Intel den Prozess verlieren.

Als eine Mitarbeiterin wegen sexueller Belästigung sich beschwerte wurde ihr gekündigt und sie verklagte darauf das Unternehmen. Plötzlich war ihre Personalakte (von der sie sich eine Kopie bei der Entlassung hatte geben lassen) angeschwollen und enthielt für sie belastendes Material. Wer das Buch "Inside Intel" von Tim Jackson ließt, der wird den Eindruck nicht los, das Intel um jeden Preis seine Vormachtstellung halten wollte und moralische Prinzipien in dieser Firma nichts zu tun hatten.

Eine neue Ausrichtung

Intel insideAnfang der neunziger Jahre war Intel soweit wie es immer kommen wollte: Die Firma dominierte den Mikroprozessormarkt. Die vielen Konkurrenten die noch zu 286 er Zeiten es gab waren verschwunden, nur AMD hielt sich recht gut und ihr AM386 Chip war 1992/93 sehr gut im Rennen, denn es gab ihn mit einer höheren Taktfrequenz zu kaufen als Intels Prozessoren. Nun wiederholte man das Spiel das man beim 386 getrieben hatte. Man machte bei 486 Prozessoren die Fliesskommaeinheit unbrauchbar und verkaufte diese zu niedrigerem Preis als "486 SX".

Ziel für die nächste Generationen war es zum einen gar keine Konkurrenz aufkommen zu lassen. Dies geschah zum einen mit der "Intel inside" Kampagne in der Intel sich direkt an den Verbraucher wandte, obgleich die meisten Verbraucher ja keine Prozessoren sondern ganze Rechner kauften. Damit ging man weg von der Rolle als Zulieferer für die Computerindustrie. Der Verbraucher sollte im Geschäft nach Rechnern mit Intel Prozessoren und so den Absatz steigern.

Das zweite waren Investments in andere Hardware und Software welche den Umsatz von Prozessoren ankurbelten. Im Jahre 1993 begann Intels Einstieg ins das Geschäft mit Motherboards. Damit konnte man nicht so viel verdienen wie mit den Prozessoren, aber sie waren unerlässlich für die Verbreitung einer Plattform. Bisher war es so: Wenn ein neuer Prozessor auf dem Markt war kosteten die Computer erheblich mehr als Computer mit dem alten. Daran waren natürlich Intels hohe Preise schuld aber auch die Motherboards waren teuer. Schließlich wollten die Firmen die Entwicklungskosten wieder hereinbekommen und auch etwas verdienen. Meist gab es zuerst nur Computer von Markenfirmen wie Compaq oder IBM, welche die Boards selbst entwickelten und erst nach einem Jahr gab es dann Boards von Drittanbietern.

Damit hatten aber Konkurrenten Zeit einen neuen Chip zu designen der kompatibel war. Wenn Sie auf dem Markt erscheinen war dieser immer noch lukrativ für sie. Es dauerte viereinhalb Jahre bis der 386 Prozessor einen Marktanteil von 25 % erreichte hatte, beim 486 er waren es noch dreieinhalb Jahre. Wenn nach 1-2 Jahren die Mitbewerber auftraten, so fanden Sie einen Markt vor, bei dem die Chips noch teuer verkauft werden konnten und der Marktanteil des neuen Prozessors noch stark ansteigen würde.

Intels neue Strategie war es nun diese Zeit zu verkürzen und dazu gehörte der Einstieg ins Motherboard und Chipsatzgeschäft. Intel sorgte dafür dass bei Einführung des Pentium auch die Boards selbst für kleinere Firmen zur Verfügung standen und bezahlbar waren, auch wenn die Gewinnmargen klein waren. Alleine über die Stückzahl und den Absatz der Prozessoren machte man Gewinn. Als Folge gelang es dem Pentium schon in einem Jahr einen Marktanteil von 25 % zu erreichen. Dagegen hatte AMD Probleme mit ihrem K5 und K6, der nicht rechtzeitig fertig wurde und langsamer als geplant war.

Eine weitere Strategie war es Software zu entwickeln oder in Softwaretechnologien zu investieren. Intel entwickelte ein System für Telefon- und Videokonferenzen und verschenkte es - Es brauchte mehr Rechenleistung und kurbelte damit indirekt den Absatz der Prozessoren an. Dazu gehörte auch der 1993 erfundene Overdrive Prozessor. Dies war ein 486 er mit intern verdoppelter Taktfrequenz. Er konnte einfach gegen einen bestehenden 486 ausgetauscht werden. Auch dabei war die Intention einen Benutzer zum Kauf eines Computers heute zu bewegen, anstatt dass er einige Monate wartet. Stattdessen sollte er dann einfach den Prozessor auswechseln um mehr Leistung zu bekommen - und Intels Kasse doppelt klingeln lassen.

Rückschläge

PentiumDas Jahr 1994/95 war geprägt von zwei Rückschlägen die Intel hinnehmen musste. Das erste war der Pentium Fliesskomma-Bug. Ein Professor für Mathematik erkannte dass der Prozessor bei bestimmten Zahlen falsch rechnete. Er meldete dies dem Intel Kundendienst, der ihn jedoch abbürstete. Dabei war Intel der Bug bekannt und man hatte ihn stillschweigend in der Produktion korrigiert, Doch 2 Millionen Chips waren fehlerhaft ausgeliefert worden. Der Professor publizierte den Bug in der Newsgroup comp.sys.intel und innerhalb von einer Woche gab es Hunderte von Benutzer die feststellten, dass ihr Pentium falsch rechnete.

Als die Medien von der Sache Wind bekamen wurde es richtig ernst. Vor allem weil Grove und der Intel Vorstand sich rundherum weigerten jeden Chip zu ersetzen. Stattdessen sollte ein Benutzer den Nachweis erbringen, dass er einer Benutzergruppe angehörte, welche von dem Bug besonders betroffen indem er z.B. Simulationen durchführte. Ein normaler Benutzer der nur Texte abfasste und spielte wäre von dem Bug nur selten betroffen und wenn wäre er ohne Belang. Das stieß auf starke Kritik, denn es zeigte die Arroganz von Intel die nun nicht nur Konkurrenten sondern auch die Kunden des Unternehmens zu spüren bekamen. Bei jedem anderen Produkt hätte es eine Umtauschaktion gegeben, egal ob ein Kunde von dem Defekt betroffen war oder nicht. Intel maß sich aber an zu entscheiden ob ein Kunde betroffen war und würde nur dann ersetzen.

Nach einigen Wochen nahm das öffentliche Interesse ab, vor allem weil auch die Computerhersteller zu Intel hielten. Schließlich waren sie darauf angewiesen dass Intel Ihnen Informationen gab und Chips verkaufte, die Firma hatte nun ja ein Monopol. Doch ein Hersteller war nicht so auf Intel angewiesen: IBM IBM konnte noch Rechner mit dem 486 er Prozessor und dem eigenen PowerPC 601 verkaufen und IBM scherte aus der Front aus.

Das löste eine Lawine aus denn nun sprangen auch andere PC Hersteller ab und die Medien griffen das Thema erneut auf. Intel war in der Bredouille und zog nach einer Krisensitzung die Notbremse. Man garantierte jedem einen Austausch eines defekten Pentium Chips und setzte dafür 475 Millionen USD, etwa einen Quartalsgewinn als Kosten an.

Im Jahre 1995 brachte Intel 2 Jahre nach dem Pentium dessen Nachfolger Pentium Pro heraus. Wie der Name andeutet war er als Chip für "Professionelle" Anwendungen gedacht. Intel nahm an, dass 9 Jahre nach Einführung des 80386 die alten Befehle des 8086 kaum noch in Software verwendet werden würden und die meisten Anwendungen nun 32 Bit Anwendungen ein würden. Unix, Windows NT und OS/2 waren reine 32 Bit Betriebssysteme und das neue Windows 95 sollte es nach Microsofts Aussagen auch sein. Als aber Windows 95 erschien erlebten die Benutzer eine Überraschung. Ihr teurer Pentium Pro Prozessor war langsamer als ein niedrig getakteter und preiswerter Pentium. Microsoft hatte zwar die Oberfläche verändert, doch unter der neuen Oberfläche arbeiteten noch alle alten Treiber und Programme von Windows 3.1 mit den alten 8086 Befehlen.

Der Pentium Pro verkaufte sich so nur bei einem kleinen Benutzerkreis von High-end Nutzern die sowieso nicht Windows 95 sondern andere Betriebssysteme einsetzten gut. Zudem erwies er sich als technologische Sackgasse. Neu war dass neben dem Prozessor ein großer schneller Speicher auf dem Chip untergebracht war. Dieser Speicher vergrößerte die Chipfläche enorm und die Ausbeute an fehlerfreien Chips sank. Zudem konnte man die Taktfrequenz nur langsam steigern, weil der Speicher nicht in dem Maße schneller gemacht werden konnte wie der Prozessor.

Ein neuer Konkurrent

Beim Pentium hatte Intel keine Konkurrenz zu fürchten. Bis AMD ihren K5 herausbrachte gab es schon den Pentium II. Bei ihm hatte man von dem Fehler des Pentium Pro gelernt und Prozessor und Speicher in einzelnen Chips untergebracht und zusammen auf eine Platine gelötet. Als der K6 von AMD erschien brachte Intel eine Low Cost Variante heraus namens Celeron. Bei ihm hatte man den Cache zuerst weggelassen und bei späteren Versionen den Cache langsamer und kleiner gemacht. K5 und K6 blieb jeweils nur eine Nische im Markt, auch weil sie in der Performance insgesamt immer etwas schlechter als der Pentium II und sein Nachfolger Pentium III abschnitten.

Doch AMD hatte noch einen Trumpf in der Hinterhand. Als Mitte der neunziger Jahre die altehrwürdige Firma DEC von Compaq übernommen wurde prallten Firmenkulturen aufeinander. DEC hatte in der Vergangenheit immer wieder innovative Produkte auf den Markt gebracht und den Minicomputer erfunden. Doch die Firma hatte den PC Boom völlig verschlafen. Ihr neuestes Produkt war der Alpha Prozessor, der 3 mal schneller als der Pentium Pro war bei weniger Transistoren - ein reinrassiger RISC Chip, aber eben nicht zu Intel kompatibel und daher zwar bei Workstations und größeren Computern erfolgreich aber nicht auf dem PC Markt.

Die Firmenkultur von Compaq gängelte die DEC Entwickler die seitdem große Freiheiten hatten und die Softwarespezialisten wanderten ab zu Microsoft wo sie Windows NT erschufen, auf dem Windows 2000 und Windows XP basieren und damit Microsoft ein stabiles Betriebssystem gaben, dass ihre eigenen Programmierer nicht hin brachten. Die Hardwareriege wechselte zu AMD und bekam den Auftrag einen Chip zu bauen der wie der Alpha intern ein RISC Chip war, aber die 8086 Befehle verarbeitete.

Das Resultat war der Athlon Prozessor. Es war der erste Prozessor von AMD, der zur gleichen Zeit Intels Flagschiff an Rechenleistung überflügelte. Zum ersten Mal konnte AMD im High-End Markt mitspielen wo die Verdienstspannen besonders hoch sind. AMD gewann mit dem Athlon wieder Marktanteile zurück. Intels Antwort war im Jahre 2000 der Pentium 4. Gegenüber dem Pentium II+III welche eine evolutionäre Weiterentwicklung des Pentium Pro waren hatte man eine neue Architektur geschaffen die vor allem auf hohe Taktfrequenzen ausgelegt war. Als er auf den Markt kam hatte er gleich die doppelte Taktfrequenz des Athlons.

Doch es zeigte sich, dass man die Taktfrequenz nicht mit der Geschwindigkeit vergleichen konnte im Schnitt war ein Pentium 4 bei gleicher Taktfrequenz etwas langsamer als ein Athlon. Doch Intel verkündete, dies sei kein Problem, man werde die Taktfrequenz sehr schnell steigern und in einigen Jahren werde es Pentium 4 mit 7-9 GHz Taktfrequenz geben. Tatsächlich war dies in den ersten 2 Jahren auch so. Der Pentium 4 steigerte in 2 Jahren seinen Takt von 1.3 auf 3 GHz. Doch dann konnte man die Geschwindigkeit kaum noch steigern.

AMD brachte es fertig dieselbe Leistung mit geringerer Taktfrequenz zu erreichen. Ein 1.75 GHz Athlon war so schnell wie ein 3 GHz Pentium. Zudem erweiterte die Firma die Architektur auf 64 Bit bei voller Komptabilität zu dem 32 Bit Modus. Intel hatte einen 64 Bit Prozessor namens Itanium entwickelt, doch er war teuer und konnte sich im Markt nicht durchsetzen. Niemand bei Intel glaubte an einen 64 Bit x86 Prozessor und auch Microsoft leistete Schützenhilfe indem sie sich mit einem 64 Bit Windows XP viel Zeit ließen, während eine Windows XP Version für den Itanium schon bei Markteinführung zur Verfügung stand.

Obwohl AMD seine Prozessoren nicht so gut mit Chipsätzen und Motherboards versorgen konnte gelang mit dem 64 Bit Athlon der Einstieg in den Servermarkt. Als AMD auch Versionen für den Konsumermarkt ankündigte und Microsoft sein Windows XP 64 Bit Edition dazu programmierte war Intel im Zugzwang, denn sie konnten nicht nur keinen 64 Bit Prozessor bieten, sondern ihre Prozessoren hatten seit Ende 2002 kaum an Leistung zugelegt.

Doch es gab Hilfe: Ende der neunziger Jahre hatten AMD und Intel ihre Streitigkeiten beide begraben, es bedürfte wohl dazu dem Ausscheiden von Grove bei Intel und Sanders bei AMD. Seitdem gab es wieder ein Technologieaustauschabkommen und Intel dürfte die 64 Bit Erweiterung von AMD nutzen und vertreibt diese unter der Bezeichnung EMT64. Im Gegenzug darf AMD die neue Fliesskommaeinheit SSE3 in seinen Prozessoren einsetzen.

Intel hatte zwei Trends verschlafen: Zum einen erwies sich seine auf hohe Taktgeschwindigkeiten optimierte Pentium 4 Architektur als Sackgasse. Es gelang nicht die hohe Taktfrequenz zu erreichen und AMD erreichte mehr Leistung bei niedrigerem Takt indem er mehr Einheiten parallel betrieb. Erstaunlicherweise setzte Intel eine ähnliche Konzeption bei ihrem Itanium Chip ein, der jedoch auf den Servermarkt abzielte und x86 Software nur langsam ausführen konnte.

Zudem hatte AMD erkannt, dass man für eine 64 Bit Erweiterung die 32 Bit Architektur nicht vollständig umkrempeln musste sondern wenn man es geschickt macht nur 5 % mehr Chipfläche braucht. Der Athlon 64 wurde auch nicht als 64 Bit Prozessor konzipiert, sondern als 32 Bit Prozessor mit einem 64 Bit Modus und damit war er genau das was die Verbraucher wünschten: Komptabilität und Schnelligkeit bei der derzeitigen Software und eine Zukunftsoption.

IPCMit dem Schwenk auf die auf dem Pentium-M (Mobilversion des Pentium-III) basierenden iCore Architektur hatte Intel wieder eine konkurrenzfähige Plattform, während AMD im Gegenzug Probleme hatte mit der Nachfolgearchitektur Bulldozer der Athlons. Erst Anfang 2018 konnte AMD mit der Zen Architektur wieder gleich ziehen. Im Jahr 2018 gibt es die achte Version der iCore Architektur, erkennbar an der ersten Ziffer " 8" bei den Chipnummern. Sie wurde aber nur inkrementell verbessert. Wie das Diagramm links zeigt wurde die Zahl der Instruktionen pro Takt (IPC: Instructions per Cycle) nur mäßig gesteigert. Die Zeiten wo ein neuer PC zwei, dreimal so alt wie ein alter PC ist, sind längst vorbei. Das gilt allerdings auch für AMD-Prozessoren.

Bei der Produktion der Bauteile ist für Unternehmen wie Intel die Qualität ausschlaggebend. Mit minderwertigen Produkten hätte das Unternehmen niemals so lange am Markt bestehen können. Es gab Zeiten wo Intel schlecht platziert war und Marktanteile verloren hat, doch sie haben sich mit leistungsfähigeren Prozessoren wie dem ICore nach der Netburst-Architektur wieder zurückgekämpft. Dabei half, dass sie seit Jahren Weltmarktführer sind - ist man das, so basieren viele PC, Server aber auch andere Hardware auf Intel Chips. Kunden wandern nicht so schnell ab, als wenn man nur einer von vielen Anbietern ist. Allerdings ist Intel auch führend bei den Fertigungsprozessen. Die Firma ist meist die erste, die eine neue (noch kleinere) Maske einführt und sie gibt sich sehr große Mühe, die Produktionsprozesse zu optimieren und den Ausschuss zu reduzieren.

Aus diesem Grund werden nicht nur die Produkte selbst, sondern auch die internen Abläufe und Produktionsschritte stetig optimiert. Traceability ist dabei zu einem wichtigen Faktor geworden. Nur, wenn jedes einzelne Bauteil jederzeit zurückverfolgt werden kann, können Fehlerquellen schnell erkannt und ausgemerzt werden. Jeder Prozessor hat eine Seriennummer, anhand derer er verfolgt werden kann. Außerdem gilt es, die Produktion zu vereinfachen und Kosten zu verringern, ohne dabei an Qualität einzubüßen. Das Unternehmen Intel war in diesem Punkt schon häufig sehr geschickt und wird sicherlich auch in Zukunft Wege finden, seine Position am Markt zu verteidigen.

Die Zukunft

AMD hatte sich mit dem Athlon einen Marktanteil von 20-30 % erkämpft, je nachdem welchen Umfragen und Zahlen man glaubt. Das ist wenig im Vergleich zu Intels Anteil, jedoch ein vielfaches dessen was AMD hatte als die aktuellen Prozessoren noch K5 und K6 hießen. Vor allem bei privaten Käufern erfreuen sich AMD Systeme einer großen Beliebtheit, da die Prozessoren billiger sind. Während Intel bei Firmenkunden noch stärker dominiert. Ab 2006 bringen beide Firmen Mehrkernprozessoren auf den Markt, da man hierüber die Geschwindigkeit besser steigern kann als über eine höhere Taktfrequenz. Intel produziert schon länger die Xeon Linie die für Multiprozessorarchitekturen ausgelegt ist. AMD ist auf diesem Gebiet ein Newcomer. Kann Intel seine Roadmap in der Form umsetzen wie dies geplant ist, so wird es für AMD wieder enger.

Intel ist jedoch auch in anderen Gebieten gut positioniert. Neben den Chipsätzen engagiert sich das Unternehmen auch bei FLASH RAM und baut in Lizenz ARM Prozessoren der XScale Serie. Diese findet man in vielen PDA's, einem Markt der in den letzten Jahren kräftig zugelegt hat. Intel will auch im Bereich der mobilen Geräte mitmischen, leider sind dafür aber selbst die stromsparendsten Modelle der x86 Architektur, die Atoms zu stromhungrig. Einen Versuch als Lizenznehmer ARM-Prozessoren die meistens in Smartphones und Tabletts stecken zu verbessern und damit den Markt zu erobern glückte nicht. 2017 kaufte Intel Altera, einen der großen Hersteller von FPGA, also durch Programm konfigurierbaren Logikbausteinen. Eventuell wird aus diesem Geschäftszweig das Produkt kommen das dann auch den Massenmarkt der Smartphones, Tabletts und anderer digitaler Gadgets erobert.

Ein Fazit

Intel zeigte recht gut wie sich Firmen entwickeln können. Schaut man jeweils im Abstand von etwa 10 Jahren auf die Entwicklung der Firma, so bekommt man jeweils einen anderen Eindruck:

Wer 1978 sich die ersten 10 Jahre von Intel besah musste der Firma Respekt zollen : Sie erfand das DRAM, das EPROM und den Mikroprozessor. Ihr 8080 steckte in den ersten Personalcomputern und der gerade erst erschienene 8086 bot einen Übergang in die 16 Welt unter Beibehaltung der Komptabilität zum 8080. Ein viel besserer Prozessor (8800) ist angekündigt.

Dieser Eindruck hatte sich weitere 10 Jahre völlig verändert. Zu diesem Zeitpunkt hatte Intel seine DRAM Sparte abgestoßen, nach mehreren Jahren mit großen Verlusten und die Trennung von der EPROM Sparte war abzusehen. Intel produzierte nur noch Mikroprozessoren und lebte hier fast ausschließlich von der x86 Architektur. Innovativ hätten Intel wohl wenige genannt, eher hatte man den Eindruck Intel verteidige seine Vormachtstellung vor allem mit juristischen Mitteln anstatt bessere Prozessoren als die Konkurrenz zu bauen.

Weitere 10 Jahre später kann man dies immer noch behaupten, auch wenn nach dem Ausscheiden von Grove als CEO sich vor allem das Verhältnis zu AMD gebessert hat. Es ist aber auch zu erkennen dass Intel sich nun von seiner Rolle als Zulieferer für die Industrie gelöst hat. Es geht nun nicht mehr darum ein größeres Stück vom Mikroprozessormarkt zu bekommen, denn viel mehr als 80 % Marktanteil sind nicht möglich. Vielmehr geht es nun darum den Markt selbst zu vergrößern indem man den Kunden dazu bewegt schneller einen neuen Rechner zu kaufen. Dazu wendet sich Intel an den Endverbraucher und erschließt sich neue Geschäftsfelder wie die Herstellung von Chipsätzen.

Im Jahre 2006 ist dieser Trend weiterhin gegeben. Intel sieht auch dass nun zumindest in den westlichen Industrieländern der PC Markt gesättigt ist und engagiert sich im PDA Markt und mit FLASH RAM auch wieder bei Speicherbausteinen. Es scheint dass die Firma sich erfolgreich von der x86 Architektur als einzigem Geschäftsfeld gelöst hat. Die Bemühungen in andere Architekturen zu investieren, z.B. wurden einige Jahre lang auch Prozessoren auf Basis der ARM-Core gefertigt gelangen jedoch nicht. Bei den Prozessoren ist es noch immer die x86 Architektur die Umsätze generiert.

Als Intel seine Mikroprozessoren erfand, konnten sich de Ingenieure nicht vorstellen, dass Privatpersonen einen Verwendungszweck für das Produkt haben könnten. Inzwischen ist der PC in fast jeder Wohnung, er ist zum Gebrauchsgut geworden.

Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.


© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Neues Hier werben Bücher vom Autor Buchempfehlungen Top 99