Chips: Ist das Ende der Fahnenstange erreicht?
… und zwar in der Integrationsdichte. Aber ich will wieder mal ausholen und die Technologie der Chipfertigung und ihr Erfolg Revue passieren lassen. Jack Kilby von Texas Instruments entwickelte 1958 die erste integrierte Schaltung. Auch wenn wir das für einen Meilenstein halten, in den ersten Jahren sah es nicht so aus, als würde sie sich durchsetzen. Ab Anfang der Sechziger Jahre produzierte Fairchild die ersten integrierten Schaltungen, die sich aber nur schwer vermarkten ließen. Der Grund war einfach: auf eine Schaltung passten damals nur wenige Transistorfunktionen (es gibt in integrierten Schaltungen auch andere elektrische Elemente wie widerstände die werden aber auch durch Transistoren realisiert sodass man von Transistorfunktionen spricht). Sie brauchten nicht weniger Platz als wenn man die Transistoren miteinander verlötete und das war einfach billiger. Das erste IC von Fairchild von 1960 nutzte anders als der Prototyp von Kilby schon Silizium als Substrat und war ein Flip-Flop mit 4 Transistoren und 5 Widerständen. Es war 1,5 x 1,5 mm groß und wurde auf Wafern von 1 Zoll (25,4 mm Durchmesser) produziert.
Das Militär und die NASA benötigten aber möglichst kompakte und stromsparende Rechner. Da Militär zuerst für die Polaris Raketen, später auch andere Lenkwaffen wie die Minutemanraketen und die NASA für den Apollo-Bordrechner. In den ersten Jahren nahmen diese beiden Regierungsorganisation rund 50 Prozent der von Fairchild produzierten Schaltungen ab und sorgten so auch für eine Verbilligung, wodurch sie ab Mitte der Sechziger Jahre sich auch bei Computerherstellern durchsetzen. Die hatten inzwischen das Problem das in einem Großrechner Hunderttausende Transistoren steckten und sie alle verdrahtet werden mussten. Das wurde immer aufwendiger und fehleranfälliger. Die integrierten Schaltungen die mittlerweile auch mehr Transistorfunktionen pro Chip speicherten, waren da eine Lösung.
Damals arbeitete Gordon Moore bei Fairchild und er beschrieb 1965 in einem Artikel, dass sich nach den bisherigen Erfahrungen die Zahl der Transistoren alle 12 Monate verdoppeln würde. Dieser Zusammenhang wurde dann als Mooresches Gesetz bekannt. Die Entwicklung verlief dann aber langsamer und Moore korrigierte die Zeit für eine Verdopplung dann auf 18 und später 24 Monate. Ende der Sechziger Jahre machte die Fertigung Fortschritte. MOSFET (Metalloxid-Feldeffekt) Transistoren ersetzten die vorher verwendeten bipolaren Transistoren. Sie waren einfacher herzustellen, verbilligten so die Schaltung und sie produzierten weniger Abwärme. Ebenso kam man darauf, das man nur Silizium als Material benötigte. Vorher wurde noch Aluminium für die Leiterbahnen aufgedampft. Auch das verbilligte die Fertigung.
Anfang der Sinziger Jahre konnte man dann über 1000 Transistoren auf eine Schaltung unterbringen. Auch der Durchmesser der Wafer wurde immer größer und damit die Zahl der Chips die man auf einmal herstellen konnte. Heute werden Wafer mit 12 Zoll verwendet, also de 144-fachen Fläche von 1960. All das verbilligte die IC rapide. Auf Basis der LSI (Large Scale Integration) Technologien entstanden die ersten noch primitiven 4 Bit Mikroprozessoren von Intel und Texas Instruments 1971. Schon drei Jahre später reichte die Integrationsdichte für einen 8 Bit Mikroprozessor, mit dem Intel 8080 begann die Mikrocomputerrevoluton. Damit zogen Computer in die Wohnzimmer ein, vorher wurden sie nur in der Wirtschaft, Forschung und beim Militär eingesetzt. Es ging dann rasant weiter. Wenn ich nur Intel als Firma nehme, kam 1978 der erste 16 Bit Mikroprozessor 8086, der aber primär ein von 8 auf 16 Bit hochgehobenes Design war, ein besseres Design war der ein Jahr später erschienene Motorola 68000. 1985 folgte der erste 32 Bit Mikroprozessor Intel 80386. Dann dauerte es bei Intel etwas länger bis der erste 64 Bitter erschien, weil man schon mit 32 Bittern gut verdiente, aber DEC stellte 1992 den ersten 64-Bit-Prozessor DEC Alpha vor. Seitdem gibt es keine Steigerung mehr in der internen Verarbeitungsbreite. Der Grund ist relativ einfach: 64 Bit reichen selbst für lange Fließkommazahlen wie sie für präzise Berechnungen benötigt werden. Das ist die größte nicht zusammengesetzte Datenstruktur die Anwendungen nutzen. Und mit 64 Bit kann man 1,8 x 1018 Bytes adressieren, das sind 16.777.216 Terabyte und das ist so viel, das ein Speicher selbst bei maximal physikalisch möglicher Integrationsdichte enorm groß wäre. Bei den größten heute verfügbaren DRAM Chips mit 64 GBit wären das über 2 Milliarden IC.
Die Tatsache, dass man Schaltungen drucken kann, führte zu einer enormen Verbilligung. In den Achtzigern zogen die Mikrocomputer in die Wohnzimmer ein, die Nachfrage nach den standardisierten Bausteinen wuchs enorm und sie wurden drastisch billiger. Bei den Heimcomputern gab es ab 1982 einen richtigen Preiskampf, losgetreten von Commodore die ihren neu erschienen C64 innerhalb eines Jahres von 1.395 auf 699 DM im Preis senkten. Im PC Bereich gab es zwar auch Konkurrenz zu IBM, doch hier sanken die Preise langsamer, qohl auch weil IBM als Marktführer die Preise nur langsam senkte und die Konkurrenz blieb immer etwas billiger als IBM. Dort war es auch noch normal, dass eine Plattform lange im Markt blieb. Noch 1988 brachte Schneider ihren Euro PC heraus – mit demselben Prozessor wie der IBM PC der schon seit sieben Jahren erhältlich war.
Das ändere sich durch Intels Werbekampagnen, die suggerierten, dass man für bestimmte Features wie schnelles Internet, immer gerade den neuesten Intel-Prozessor brauchte. Sie reduzierten die Zeit in der eine bestimmte Prozessorfamilie im Markt blieb drastisch. Daneben begann zeitgleich die Leistung der Prozessoren schnell zu steigen – im Jahrzehnt von 1981 bis 1991 waren es bei IBM-Kompatiblen eine Steigerung von 8 auf 33 MHz, in den nächsten 10 Jahren stieg das von 33 auf 1.200 MHz, also um fast das Vierzigfache. Mit dem Internet wurde zudem ein PC auch für Leute attraktiv, die ihn weder fürs Arbeiten noch zum Spielen oder Entwicklern brachten.
Ebenso verdrängten Mikroprozessoren bis zum Jahr 2000 die monolithischen Architekturen von Mini- oder Mikrocomputerherstellern. Auch sie produzieren nun Mikroprozessoren oder verwenden kommerzielle Mikroprozessoren wie eben den erwähnten Alpha der in den ersten Supercomputern von Cray auf Mikorprozessorbasis steckte.
Doch seit etwa der Jahrtausendwende hat sich das Blatt gewendet. Es fing mit dem Pentium 4 an. Bei seiner Netburst Architektur setzte Intel auf wenige parallel arbeitende Einheiten und hohen Takt. Der Takt wurde auch schnell auf 3 GHz gesteigert, aber dann ging es nur noch langsam vorwärts. Es wunde so viel Abwärme erzeugt, das mit Luftkühlung es Probleme gab. Die Prozessorkühler waren riesig und konnten nicht mehr größer werden. AMD erreichte mehr Leistung beim Athlon durch mehr parallel arbeitende Einheiten und geringeren Takt. Auf dieses Konzept kam Intel bei der I-Core Serie dann auch wieder zurück. Seitdem – nun auch schon über 20 Jahre her – steigt die Leistung von Prozessoren nur langsam. Achitekturerweiterungen bringen etwas mehr Leistung, aber nicht wie vorher kräftige Schübe. Im Wesentlichen steigt die Geschwindigkeit nur durch immer mehr Kerne. 2005 kamen die ersten Zweikernprozessoren auf den Markt, heute sind im bezahlbaren Preissegment acht Kerne üblich.
Etwas Ähnliches beobachten wir auch beim Speicher. Früher war es üblich, dass sich alle drei bis vier Jahre die Bits pro Chip vervierfachten. Das ist schon lange nicht mehr so. Auch hier verläuft seit kurz nach der Jahrtausendwende die Entwicklung langsamer. Mein 2005 gekaufter ,vorletzter PC hatte beim Kauf 4 GB EAM, mein letzter von 2022 hatte anfangs 16 GB – Faktor 4, aber in 18 Jahren Zeitdifferenz. Inzwischen bieten Hersteller schon „krumme“ Größen an, also RAM-Module die nicht eine Kapazität einer ganzen Zweipotenz haben wie 24 GBit Chips, aus denen dann 24 oder 48 GB Module werden.
Nur Flashspeicher scheint weiter schnell zu wachsen. Hier vor allem, weil ein Baustein dieses Speichers nicht aus einer Schicht besteht, sondern vielen Dies die übereinander gestapelt werden. Der Zahl nahm immer weiter zu. Möglich sind heute bis zu 332 Lagen. Ebenso steigen die Größen von Festplatten kaum noch an, auch hier kommen wir an Grenzen. Dafür werde PCs wieder teurer. Lange war es so, das jeder neue PC, den ich kaufte, billiger war als der vorhergehende. Der erste kostete rund 5000 DM mit Monitor, der nächste 3800, dann 2000 (ab jetzt ohne Monitor), 800 Euro und als Tiefpunkt 500 Euro. Seitdem ging es wieder bergauf – 700 Euro und der letzte lag bei 820 Euro, dabei kaufe ich immer Mittelklasse. Dabei steigen die Nutzungszeiten – früher kaufte ich nach drei Jahren einen neuen PC, weil er durch neue Software oder eine neue Windows Version, dann zu langsam war. Die beiden letzten habe ich genutzt bis ein Defekt auftrat, fünf bzw. sieben Jahre lang.
Aber noch geht es vorwärts. Doch wird dies so weitergehen? Ich denke nicht. Die Strukturen, die man auf dem Silizium ätzen kann werden immer kleiner. Der erste Prozessor Intel 4004 entstand in einer 12000 nm Technologie. Das war 1971. Heute liegt das Maximum bei 3-4 nm Strukturbreite, TSMC hat einen 2 nm Prozess angekündigt. Damit kommt man aber in Bereiche, wo Quanteneffekte nicht mehr ignoriert werden können. Diese sollen ab 5 nm Transistorgröße abwärts zu immer mehr Problemen führen. Die Strukturbreite korreliert mit der Größe des Transistors, für den 10 nm Prozess war ein Transistor 32 nm groß, bei einem 2 nm Prozess rechnet man mit 7 nm Transistorgröße – da auch die Beugung des EUV immer stärker wird, je kleiner die Strukturen sind, wird auch der Transistor im Verhältnis zur Strukturbreite immer größer. Das zeigt aber auch das die Grenze nicht mehr weit entfernt ist. Experimentell hat man einen 1 nm großes Gate aus Molybdänsulfid erzeugt. Doch das ist kein Halsleitermaterial, es ist auch nur ein Gate, kein funktionierender Transistor und die Technologie hat nichts mit dem Herstellen von Chips zu tun. Ich denke, wir werden in einigen Jahren am Ende der Fahnenstange angekommen sein.
Wie geht es dann weiter? Nun man kann in die dritte Dimension gehen wie schon bei Flash-Speichern. Intel und AMD haben aus Fertigungsgründen schon die Prozessoren in einzelne Chiplets aufgeteilt, die kann man stapeln und man kann so auch die DRAM Bausteine direkter an die CPU anbinde,n was diese schneller macht. Dadurch kann man die riesigen Caches, die den Großteil der Chipfläche ausmachen wieder reduzieren und mehr Logik implementieren, was die Leistung erhöht. Aber all das ist aufwendiger und teurer und ich wage zu prognostizieren, das die IT-Industrie schon in wenigen Jahren da ist, wo alle anderen Industrien heute schon sind: sie können ein Produkt nur noch evolutionär verbessern, den Trend dazu sehen wir ja schon seit 20 Jahren.
PC Verkäufe werden auch dadurch angekurbelt weil Windows 10 jetzt ausläuft und Win11 auf vielen Kisten ohne Not nicht mehr offiziell laufen tut…
Für mich persönlich is es schon lange so das der Leistungszuwachs neuer Prozessorgenerationen kaum noch ein Aufrüsten/Neukauf lohnt. Zuhause tut es mein i5 Gen2 immer noch, seit mittlerweile 14 Jahren. Für ein bisschen Browsen und Video abspielen reicht der immer noch.
Ich habe auch nicht vor den in absehbarer Zeit zu ersetzen, Microsoft kann sich Win11 dahin stecken wo die Sonne nicht hinscheint. Es bietet nichts was ich brauche/will und funktioniert da wo ich beruflich gezwungen bin es zu benutzen durchweg schlechter als Win10. Win10 war wohl mein letztes Windows, ich werf doch einen funktinierenden PC der für seine Aufgaben ausreicht nicht weg – kommt dann halt ein Linux drauf.