Chips: Ist das Ende der Fahnenstange erreicht?
![]()
… und zwar in der Integrationsdichte. Aber ich will wieder mal ausholen und die Technologie der Chipfertigung und ihr Erfolg Revue passieren lassen. Jack Kilby von Texas Instruments entwickelte 1958 die erste integrierte Schaltung. Auch wenn wir das für einen Meilenstein halten, in den ersten Jahren sah es nicht so aus, als würde sie sich durchsetzen. Ab Anfang der Sechziger Jahre produzierte Fairchild die ersten integrierten Schaltungen, die sich aber nur schwer vermarkten ließen. Der Grund war einfach: auf eine Schaltung passten damals nur wenige Transistorfunktionen (es gibt in integrierten Schaltungen auch andere elektrische Elemente wie widerstände die werden aber auch durch Transistoren realisiert sodass man von Transistorfunktionen spricht). Sie brauchten nicht weniger Platz als wenn man die Transistoren miteinander verlötete und das war einfach billiger. Das erste IC von Fairchild von 1960 nutzte anders als der Prototyp von Kilby schon Silizium als Substrat und war ein Flip-Flop mit 4 Transistoren und 5 Widerständen. Es war 1,5 x 1,5 mm groß und wurde auf Wafern von 1 Zoll (25,4 mm Durchmesser) produziert.
Das Militär und die NASA benötigten aber möglichst kompakte und stromsparende Rechner. Da Militär zuerst für die Polaris Raketen, später auch andere Lenkwaffen wie die Minutemanraketen und die NASA für den Apollo-Bordrechner. In den ersten Jahren nahmen diese beiden Regierungsorganisation rund 50 Prozent der von Fairchild produzierten Schaltungen ab und sorgten so auch für eine Verbilligung, wodurch sie ab Mitte der Sechziger Jahre sich auch bei Computerherstellern durchsetzen. Die hatten inzwischen das Problem das in einem Großrechner Hunderttausende Transistoren steckten und sie alle verdrahtet werden mussten. Das wurde immer aufwendiger und fehleranfälliger. Die integrierten Schaltungen die mittlerweile auch mehr Transistorfunktionen pro Chip speicherten, waren da eine Lösung.
Damals arbeitete Gordon Moore bei Fairchild und er beschrieb 1965 in einem Artikel, dass sich nach den bisherigen Erfahrungen die Zahl der Transistoren alle 12 Monate verdoppeln würde. Dieser Zusammenhang wurde dann als Mooresches Gesetz bekannt. Die Entwicklung verlief dann aber langsamer und Moore korrigierte die Zeit für eine Verdopplung dann auf 18 und später 24 Monate. Ende der Sechziger Jahre machte die Fertigung Fortschritte. MOSFET (Metalloxid-Feldeffekt) Transistoren ersetzten die vorher verwendeten bipolaren Transistoren. Sie waren einfacher herzustellen, verbilligten so die Schaltung und sie produzierten weniger Abwärme. Ebenso kam man darauf, das man nur Silizium als Material benötigte. Vorher wurde noch Aluminium für die Leiterbahnen aufgedampft. Auch das verbilligte die Fertigung.
Anfang der Sinziger Jahre konnte man dann über 1000 Transistoren auf eine Schaltung unterbringen. Auch der Durchmesser der Wafer wurde immer größer und damit die Zahl der Chips die man auf einmal herstellen konnte. Heute werden Wafer mit 12 Zoll verwendet, also de 144-fachen Fläche von 1960. All das verbilligte die IC rapide. Auf Basis der LSI (Large Scale Integration) Technologien entstanden die ersten noch primitiven 4 Bit Mikroprozessoren von Intel und Texas Instruments 1971. Schon drei Jahre später reichte die Integrationsdichte für einen 8 Bit Mikroprozessor, mit dem Intel 8080 begann die Mikrocomputerrevoluton. Damit zogen Computer in die Wohnzimmer ein, vorher wurden sie nur in der Wirtschaft, Forschung und beim Militär eingesetzt. Es ging dann rasant weiter. Wenn ich nur Intel als Firma nehme, kam 1978 der erste 16 Bit Mikroprozessor 8086, der aber primär ein von 8 auf 16 Bit hochgehobenes Design war, ein besseres Design war der ein Jahr später erschienene Motorola 68000. 1985 folgte der erste 32 Bit Mikroprozessor Intel 80386. Dann dauerte es bei Intel etwas länger bis der erste 64 Bitter erschien, weil man schon mit 32 Bittern gut verdiente, aber DEC stellte 1992 den ersten 64-Bit-Prozessor DEC Alpha vor. Seitdem gibt es keine Steigerung mehr in der internen Verarbeitungsbreite. Der Grund ist relativ einfach: 64 Bit reichen selbst für lange Fließkommazahlen wie sie für präzise Berechnungen benötigt werden. Das ist die größte nicht zusammengesetzte Datenstruktur die Anwendungen nutzen. Und mit 64 Bit kann man 1,8 x 1018 Bytes adressieren, das sind 16.777.216 Terabyte und das ist so viel, das ein Speicher selbst bei maximal physikalisch möglicher Integrationsdichte enorm groß wäre. Bei den größten heute verfügbaren DRAM Chips mit 64 GBit wären das über 2 Milliarden IC.
Die Tatsache, dass man Schaltungen drucken kann, führte zu einer enormen Verbilligung. In den Achtzigern zogen die Mikrocomputer in die Wohnzimmer ein, die Nachfrage nach den standardisierten Bausteinen wuchs enorm und sie wurden drastisch billiger. Bei den Heimcomputern gab es ab 1982 einen richtigen Preiskampf, losgetreten von Commodore die ihren neu erschienen C64 innerhalb eines Jahres von 1.395 auf 699 DM im Preis senkten. Im PC Bereich gab es zwar auch Konkurrenz zu IBM, doch hier sanken die Preise langsamer, qohl auch weil IBM als Marktführer die Preise nur langsam senkte und die Konkurrenz blieb immer etwas billiger als IBM. Dort war es auch noch normal, dass eine Plattform lange im Markt blieb. Noch 1988 brachte Schneider ihren Euro PC heraus – mit demselben Prozessor wie der IBM PC der schon seit sieben Jahren erhältlich war.
Das ändere sich durch Intels Werbekampagnen, die suggerierten, dass man für bestimmte Features wie schnelles Internet, immer gerade den neuesten Intel-Prozessor brauchte. Sie reduzierten die Zeit in der eine bestimmte Prozessorfamilie im Markt blieb drastisch. Daneben begann zeitgleich die Leistung der Prozessoren schnell zu steigen – im Jahrzehnt von 1981 bis 1991 waren es bei IBM-Kompatiblen eine Steigerung von 8 auf 33 MHz, in den nächsten 10 Jahren stieg das von 33 auf 1.200 MHz, also um fast das Vierzigfache. Mit dem Internet wurde zudem ein PC auch für Leute attraktiv, die ihn weder fürs Arbeiten noch zum Spielen oder Entwicklern brachten.
Ebenso verdrängten Mikroprozessoren bis zum Jahr 2000 die monolithischen Architekturen von Mini- oder Mikrocomputerherstellern. Auch sie produzieren nun Mikroprozessoren oder verwenden kommerzielle Mikroprozessoren wie eben den erwähnten Alpha der in den ersten Supercomputern von Cray auf Mikorprozessorbasis steckte.
Doch seit etwa der Jahrtausendwende hat sich das Blatt gewendet. Es fing mit dem Pentium 4 an. Bei seiner Netburst Architektur setzte Intel auf wenige parallel arbeitende Einheiten und hohen Takt. Der Takt wurde auch schnell auf 3 GHz gesteigert, aber dann ging es nur noch langsam vorwärts. Es wunde so viel Abwärme erzeugt, das mit Luftkühlung es Probleme gab. Die Prozessorkühler waren riesig und konnten nicht mehr größer werden. AMD erreichte mehr Leistung beim Athlon durch mehr parallel arbeitende Einheiten und geringeren Takt. Auf dieses Konzept kam Intel bei der I-Core Serie dann auch wieder zurück. Seitdem – nun auch schon über 20 Jahre her – steigt die Leistung von Prozessoren nur langsam. Achitekturerweiterungen bringen etwas mehr Leistung, aber nicht wie vorher kräftige Schübe. Im Wesentlichen steigt die Geschwindigkeit nur durch immer mehr Kerne. 2005 kamen die ersten Zweikernprozessoren auf den Markt, heute sind im bezahlbaren Preissegment acht Kerne üblich.
Etwas Ähnliches beobachten wir auch beim Speicher. Früher war es üblich, dass sich alle drei bis vier Jahre die Bits pro Chip vervierfachten. Das ist schon lange nicht mehr so. Auch hier verläuft seit kurz nach der Jahrtausendwende die Entwicklung langsamer. Mein 2005 gekaufter ,vorletzter PC hatte beim Kauf 4 GB EAM, mein letzter von 2022 hatte anfangs 16 GB – Faktor 4, aber in 18 Jahren Zeitdifferenz. Inzwischen bieten Hersteller schon „krumme“ Größen an, also RAM-Module die nicht eine Kapazität einer ganzen Zweipotenz haben wie 24 GBit Chips, aus denen dann 24 oder 48 GB Module werden.
Nur Flashspeicher scheint weiter schnell zu wachsen. Hier vor allem, weil ein Baustein dieses Speichers nicht aus einer Schicht besteht, sondern vielen Dies die übereinander gestapelt werden. Der Zahl nahm immer weiter zu. Möglich sind heute bis zu 332 Lagen. Ebenso steigen die Größen von Festplatten kaum noch an, auch hier kommen wir an Grenzen. Dafür werde PCs wieder teurer. Lange war es so, das jeder neue PC, den ich kaufte, billiger war als der vorhergehende. Der erste kostete rund 5000 DM mit Monitor, der nächste 3800, dann 2000 (ab jetzt ohne Monitor), 800 Euro und als Tiefpunkt 500 Euro. Seitdem ging es wieder bergauf – 700 Euro und der letzte lag bei 820 Euro, dabei kaufe ich immer Mittelklasse. Dabei steigen die Nutzungszeiten – früher kaufte ich nach drei Jahren einen neuen PC, weil er durch neue Software oder eine neue Windows Version, dann zu langsam war. Die beiden letzten habe ich genutzt bis ein Defekt auftrat, fünf bzw. sieben Jahre lang.
Aber noch geht es vorwärts. Doch wird dies so weitergehen? Ich denke nicht. Die Strukturen, die man auf dem Silizium ätzen kann werden immer kleiner. Der erste Prozessor Intel 4004 entstand in einer 12000 nm Technologie. Das war 1971. Heute liegt das Maximum bei 3-4 nm Strukturbreite, TSMC hat einen 2 nm Prozess angekündigt. Damit kommt man aber in Bereiche, wo Quanteneffekte nicht mehr ignoriert werden können. Diese sollen ab 5 nm Transistorgröße abwärts zu immer mehr Problemen führen. Die Strukturbreite korreliert mit der Größe des Transistors, für den 10 nm Prozess war ein Transistor 32 nm groß, bei einem 2 nm Prozess rechnet man mit 7 nm Transistorgröße – da auch die Beugung des EUV immer stärker wird, je kleiner die Strukturen sind, wird auch der Transistor im Verhältnis zur Strukturbreite immer größer. Das zeigt aber auch das die Grenze nicht mehr weit entfernt ist. Experimentell hat man einen 1 nm großes Gate aus Molybdänsulfid erzeugt. Doch das ist kein Halsleitermaterial, es ist auch nur ein Gate, kein funktionierender Transistor und die Technologie hat nichts mit dem Herstellen von Chips zu tun. Ich denke, wir werden in einigen Jahren am Ende der Fahnenstange angekommen sein.
Wie geht es dann weiter? Nun man kann in die dritte Dimension gehen wie schon bei Flash-Speichern. Intel und AMD haben aus Fertigungsgründen schon die Prozessoren in einzelne Chiplets aufgeteilt, die kann man stapeln und man kann so auch die DRAM Bausteine direkter an die CPU anbinde,n was diese schneller macht. Dadurch kann man die riesigen Caches, die den Großteil der Chipfläche ausmachen wieder reduzieren und mehr Logik implementieren, was die Leistung erhöht. Aber all das ist aufwendiger und teurer und ich wage zu prognostizieren, das die IT-Industrie schon in wenigen Jahren da ist, wo alle anderen Industrien heute schon sind: sie können ein Produkt nur noch evolutionär verbessern, den Trend dazu sehen wir ja schon seit 20 Jahren.
PC Verkäufe werden auch dadurch angekurbelt weil Windows 10 jetzt ausläuft und Win11 auf vielen Kisten ohne Not nicht mehr offiziell laufen tut…
Für mich persönlich is es schon lange so das der Leistungszuwachs neuer Prozessorgenerationen kaum noch ein Aufrüsten/Neukauf lohnt. Zuhause tut es mein i5 Gen2 immer noch, seit mittlerweile 14 Jahren. Für ein bisschen Browsen und Video abspielen reicht der immer noch.
Ich habe auch nicht vor den in absehbarer Zeit zu ersetzen, Microsoft kann sich Win11 dahin stecken wo die Sonne nicht hinscheint. Es bietet nichts was ich brauche/will und funktioniert da wo ich beruflich gezwungen bin es zu benutzen durchweg schlechter als Win10. Win10 war wohl mein letztes Windows, ich werf doch einen funktinierenden PC der für seine Aufgaben ausreicht nicht weg – kommt dann halt ein Linux drauf.
Das sagen die meisten schon seit Windows 8, Linux ist unter der Haube viel zu fremd. Wenn da mal was nicht läuft helfen einem all die mit DOS und Windows gesammelten Erfahrungen nicht weiter und oft fehlen geliebte Tools an die man sich unter Windows gewöhnt hat. Ich hab mein W11 wieder schnell in ein W10 verwandelt optisch
Ich benutze Ubuntu Linux nun seit 2016 und muss dir da wiedersprechen.
Hat man erfahrung unter Windows, ist es zwar schon eine grosse umgewoehnung, aber die lernkurve ist da sehr steil.
Alle probleme kann man mit einer kurzen google suche meist ohne probleme loesen.
Auch lustig:
Mittlerweile ist gaming auf Linux sogar meist besser mit aelteren titeln etc. unter Linux mit Wine und Proton.
Spiele immer noch uralt games und auch neue titel laufen meist „aus der box“
Auch hat Ubuntu meinen Rechnern ein langes Leben beschert.
Der erste Laptop mit Ubuntu von 2016 ist immer noch als home server aktiv (meist fuer Filme, da ich kein Netfilx etc. nutze)
Ich habe vor ein paar Monaten auch den Umstieg probiert. Mein haupt PC fällt auch aus dem Windos Support raus reicht mir aber Geschwindigkeitstechnisch noch für 1-2 Jahre.
Ist leider nicht gut gelaufen. Primäres Problem, ich wollte ein Multibootsystem. Dafür muste ich meine Primäre SSD natürlich umpartitionieren. Das ist gelungen. Den Installer der ersten Distribution habe ich dann aber falsch bedient (oder nach meiner Meinung, er hat eine doofe Bedienführung). Habe damit meine Windows Partition gekillt… Kein größerer Datenverlust aber trotzdem ägerlich. Dann nochmal mit Linux Mint probiert, damit habe ich ein Multibootsystem hinbekommen. Bevor ich wirklich warm damit wurde hatte ich einen Datenverlust auf eine mit NTFS formatierte Platte auf die ich sowohl von Windows wie auch Linux zugegriffen habe. Ein (großes) Verzeichniss war plötzlich weg. Ließ sich mit Datenwiederherstellungsprogrammen wieder herstellen. Ich weiß nicht ob es an der Festplatte, an Linux, an dem verwendeten Programm oder theoretisch sogar an Windows lag. verwende habe lag. Aber danach hatte ich keine Lust mehr auf Dualboot.
Die Linux Mint Installation habe ich immer noch, weil ich keine Lust darauf habe mich damit zu beschäftigen wie ich den Bootmanager wieder weg bekommen.
Ganz von der Idee auf Linux zu wechseln bin ich auch noch nicht. Aber erst mal hatte ich die Lust verloren.
Aller guten Dinge sind 3. Entweder Windows lassen und Linux als Live-System von USB verwenden, oder, sicherer, pro Betriebssystem eine eigene Partition. NTFS kann Linus zwar lesen und beschreiben, aber mit der Flag-Setzung kommt dann Windows wieder nicht so klar.
Ich habe den Thread jetzt eine Weile laufen lassen, obwohl er völlig off-Topic ist.
Ich habe auf dem PC Windows und beim Raspberry Pi den ich für viele Projekte nutze läuft ein Debian Linux. Für den normalen Alltag als Büromaschine ist das unwichtig. Gut man muss umdenken, aber alles läuft irgendwie noch in einer GUI ab. Problematisch wirds wenns darüber hinausgeht, dann muss man auf die konsole und ist auf Webtipps angewiesen und wenn die laufen, dann geht eben nichts mehr.
Wenn ich nicht programmieren würde und meine Umgebung + bezahlter Plugins nur unter Windows laufen würde, wäre für mich Linux sicher eine Alternative. Zu klären wäre dann aber auch noch ob die Spiele die ich habe noch laufen. Die sind zwar abgehangen aber wurden eben für Windows entwickelt.
Das Wettrennen bei den Chips hat sich teilweise auch auf GPU’s verschoben. Da ist ja auch „dank“ KI die Nachfrage derzeit praktisch unbegrenzt.
Das andere interessante Thema sind derzeit APU, also CPU mit intergrierter Grafikeinheit. Gibts schon lange aber lange war die integrierte Grafik maximal für „Büroanwendungen“ zu nutzen. Mit den Apple M und den AMD Ryzen AI Modellen hat sich da was getan. Da erwarte ich in den näcshten Jahren den größten Fortschritt. Eine zusätzliche Grafikkarte wird dann kaum noch jemand haben.
Das Grafikkarten verschwinden würde mich doch sehr wundern. Alleine Nvidia ist eine der wertvollsten Marken der Welt. Die werden schon für Nachfrage sorgen.
Man muss sich nur mal anschauen zu welchen Preisen die ihre aktuellen Generationen anbieten und die gehen weg wie warme Semmel.
Der Umsatz den Nvidia im Bereich Gaming macht ist gegenüber dem den sie im Bereich Rechenzentren machen unbedeutend. Allerdings ist das was Sie in die beiden Sparten verkaufen natürlich teilweise fast das gleiche.
Dazu, ich behaupte ja nicht das Grafikkarten verschwinden, sondern nur das APU also CPU+GPU Kombinationsprozessoren einen deutlich größeren Marktanteil erobern werden.
Wenn man lokal AI laufen lassen will braucht man viel RAM und Grafikspeicher sowie darauf optimierte Prozessoren. Das könnte noch einen Schub bei der Nachfrage geben.
Ansonsten ist meine Hardware total veraltet und wird langsam nicht mehr von den Herstellern unterstützt.
@Bernd
Einige Abschnitte dieses Artikels sind durch Tippfehler unleserlich. Hast du schon probiert AI Korrektur lesen zu lassen?
Ich habe vor einem Jahr mal die AI bemüht, die hat aber meine Artikel teilweise sinnentstellt indem sie Wörter ausgetauscht hat. Aber extra für dich eine von ChatGPT korrigierte Version:
**Ist das Ende der Fahnenstange erreicht?**
… und zwar bei der Integrationsdichte. Aber ich möchte wieder einmal ausholen und die Technologie der Chipfertigung sowie ihren Erfolg Revue passieren lassen.
Jack Kilby von Texas Instruments entwickelte 1958 die erste integrierte Schaltung. Auch wenn wir dies heute als Meilenstein betrachten, sah es in den ersten Jahren nicht danach aus, als würde sich diese Technologie durchsetzen. Ab Anfang der 1960er Jahre produzierte Fairchild die ersten integrierten Schaltungen, die sich jedoch nur schwer vermarkten ließen. Der Grund war einfach: Auf eine Schaltung passten damals nur wenige Transistorfunktionen (in integrierten Schaltungen gibt es auch andere elektrische Elemente wie Widerstände, diese werden jedoch ebenfalls durch Transistoren realisiert, sodass man allgemein von Transistorfunktionen spricht). Sie benötigten nicht weniger Platz als einzelne Transistoren, die man manuell verlötete – und das war einfach günstiger.
Das erste IC von Fairchild aus dem Jahr 1960 nutzte – anders als der Prototyp von Kilby – bereits Silizium als Substrat und war ein Flip-Flop mit vier Transistoren und fünf Widerständen. Es war 1,5 × 1,5 mm groß und wurde auf Wafern mit 1 Zoll (25,4 mm Durchmesser) hergestellt.
Das Militär und die NASA benötigten jedoch möglichst kompakte und stromsparende Rechner – das Militär zunächst für die Polaris-Raketen, später auch für andere Lenkwaffen wie die Minuteman-Raketen, die NASA für den Apollo-Bordrechner. In den Anfangsjahren nahmen diese beiden Regierungsorganisationen rund 50 Prozent der von Fairchild produzierten Schaltungen ab und sorgten so für eine Verbilligung, wodurch sie sich ab Mitte der 1960er Jahre auch bei Computerherstellern durchsetzten. Diese hatten inzwischen das Problem, dass in einem Großrechner Hunderttausende Transistoren verbaut waren, die alle verdrahtet werden mussten – ein aufwendiger und fehleranfälliger Prozess. Die integrierten Schaltungen, die mittlerweile auch mehr Transistorfunktionen pro Chip enthielten, waren eine willkommene Lösung.
Damals arbeitete Gordon Moore bei Fairchild, und er beschrieb 1965 in einem Artikel, dass sich – basierend auf bisherigen Erfahrungen – die Anzahl der Transistoren etwa alle zwölf Monate verdoppeln würde. Dieser Zusammenhang wurde später als „Mooresches Gesetz“ bekannt. Die Entwicklung verlief jedoch langsamer, und Moore korrigierte die Verdopplungszeit später auf 18, dann auf 24 Monate.
Ende der 1960er Jahre machte die Fertigung große Fortschritte. MOSFET-Transistoren (Metall-Oxid-Feldeffekttransistoren) ersetzten die zuvor verwendeten bipolaren Transistoren. Sie waren einfacher herzustellen, produzierten weniger Abwärme und senkten die Kosten. Man fand zudem heraus, dass Silizium allein als Material genügte – zuvor wurde z. B. Aluminium für die Leiterbahnen verwendet. Auch dies verbilligte die Fertigung.
Anfang der 1970er Jahre konnte man über 1000 Transistoren auf einer Schaltung unterbringen. Der Durchmesser der Wafer wurde ebenfalls immer größer, wodurch mehr Chips pro Fertigungsvorgang hergestellt werden konnten. Heute verwendet man Wafer mit 12 Zoll (300 mm) Durchmesser – das entspricht der 144-fachen Fläche von 1960. All dies führte zu einer rapiden Verbilligung der ICs. Auf Basis der LSI- (Large Scale Integration) Technologien entstanden 1971 die ersten (noch primitiven) 4-Bit-Mikroprozessoren von Intel und Texas Instruments. Schon drei Jahre später ermöglichte die Integrationsdichte einen 8-Bit-Mikroprozessor – mit dem Intel 8080 begann die Mikrocomputerrevolution. Damit hielten Computer Einzug in Privathaushalte; zuvor wurden sie nur in Wirtschaft, Forschung und beim Militär eingesetzt.
Die Entwicklung ging rasant weiter. Bei Intel erschien 1978 der erste 16-Bit-Mikroprozessor (8086), der im Grunde nur ein erweitertes 8-Bit-Design darstellte. Der Motorola 68000, der ein Jahr später erschien, war architektonisch überlegen. 1985 folgte mit dem Intel 80386 der erste 32-Bit-Mikroprozessor. Es dauerte dann noch bis 1992, bis DEC den ersten 64-Bit-Prozessor (Alpha) vorstellte – Intel zögerte, da man mit 32-Bit-Prozessoren noch sehr profitabel war.
Seitdem hat sich die interne Verarbeitungsbreite nicht weiter erhöht. Der Grund ist einfach: 64 Bit reichen selbst für präzise Fließkommazahlen aus – größere, nicht zusammengesetzte Datenstrukturen benötigen Anwendungen in der Regel nicht. Zudem kann man mit 64 Bit bis zu 1,8 × 10¹⁸ Bytes adressieren – das sind 16.777.216 Terabyte. Selbst bei maximal möglicher Integrationsdichte wäre ein solcher Speicher physikalisch enorm groß. Bei heutigen DRAM-Chips mit 64 GBit entspräche das über zwei Milliarden ICs.
Die Möglichkeit, Schaltungen zu drucken, führte zu einer massiven Kostenreduktion. In den 1980ern zogen Mikrocomputer in die Wohnzimmer ein, die Nachfrage nach standardisierten Bausteinen stieg stark und senkte die Preise drastisch. Ab 1982 setzte bei Heimcomputern ein echter Preiskampf ein, ausgelöst durch Commodore, die den Preis ihres C64 innerhalb eines Jahres von 1.395 auf 699 DM senkten. Im PC-Bereich war der Preisverfall langsamer, da IBM als Marktführer die Preise nur zögerlich senkte und die Konkurrenz stets etwas günstiger blieb. Plattformen blieben damals lange im Markt – noch 1988 brachte Schneider mit dem Euro-PC ein Gerät mit demselben Prozessor wie der IBM-PC, der zu dem Zeitpunkt bereits sieben Jahre alt war.
Dies änderte sich durch Intels Werbekampagnen, die suggerierten, dass man für bestimmte Funktionen – wie schnelles Internet – stets den neuesten Prozessor benötige. Dadurch verkürzte sich die Lebensdauer von Prozessorgenerationen erheblich. Gleichzeitig stieg die Leistung massiv: Bei IBM-kompatiblen PCs stieg die Taktrate von 1981 bis 1991 von 8 auf 33 MHz – in den folgenden zehn Jahren von 33 auf 1200 MHz – also nahezu das Vierzigfache. Mit dem Internet wurde der PC zudem für viele Menschen interessant, die ihn weder zum Arbeiten noch zum Spielen oder Entwickeln nutzten.
Mikroprozessoren verdrängten bis 2000 auch die monolithischen Architekturen von Mini- und Großrechnerherstellern. Auch sie produzierten nun Mikroprozessoren oder nutzten kommerzielle Chips – wie den Alpha-Prozessor, der in den ersten Cray-Supercomputern auf Mikroprozessorbasis verwendet wurde.
Doch seit der Jahrtausendwende hat sich das Blatt gewendet. Mit dem Pentium 4 führte Intel die NetBurst-Architektur ein, die auf wenige, stark getaktete, parallel arbeitende Einheiten setzte. Zwar stieg der Takt schnell auf 3 GHz, aber dann ging es nur noch langsam voran. Die Abwärme wurde so hoch, dass Luftkühlung an ihre Grenzen stieß. Prozessorkühler wurden riesig und konnten kaum noch größer werden. AMD erreichte mit dem Athlon-Prozessor höhere Leistung durch mehr parallele Einheiten bei geringerem Takt. Auf ein ähnliches Konzept setzte Intel dann später wieder mit der Core-i-Serie. Seitdem – mittlerweile auch schon über 20 Jahre – steigt die Prozessorleistung nur noch langsam. Architekturverbesserungen bringen noch leichte Zuwächse, aber keine großen Sprünge mehr. Im Wesentlichen entsteht Leistungszuwachs heute nur durch mehr Kerne: 2005 kamen erste Dual-Core-Prozessoren auf den Markt, heute sind acht Kerne im bezahlbaren Segment üblich.
Ähnliches gilt auch für Speicher: Früher vervierfachte sich die Bitdichte eines Chips etwa alle drei bis vier Jahre – heute ist diese Entwicklung deutlich langsamer. Mein 2005 gekaufter vorletzter PC hatte 4 GB RAM, mein aktueller (2022 gekauft) kam mit 16 GB – also ein Faktor vier in 18 Jahren. Inzwischen bieten Hersteller auch „krumme“ Größen an, etwa RAM-Module mit 24 oder 48 GB, basierend auf 24-Gbit-Chips.
Nur Flash-Speicher wächst weiterhin schnell – vor allem, weil hier mehrere Dies übereinander gestapelt werden. Inzwischen sind bis zu 332 Lagen möglich. Festplattenkapazitäten hingegen wachsen kaum noch. Auch hier nähern wir uns Grenzen. Gleichzeitig werden PCs wieder teurer. Früher war jeder neue PC günstiger als der vorherige: Mein erster kostete rund 5000 DM (inkl. Monitor), der nächste 3800, dann 2000 DM (ohne Monitor), dann 800 Euro und zuletzt 500 Euro. Seitdem stiegen die Preise wieder – auf 700 und zuletzt 820 Euro, obwohl ich stets Mittelklassegeräte kaufe. Gleichzeitig verlängerten sich die Nutzungsdauern: Früher kaufte ich alle drei Jahre einen neuen PC, heute nutze ich ihn bis zum Defekt – fünf bzw. sieben Jahre.
Noch geht es vorwärts – aber wie lange noch? Ich denke, nicht mehr lange. Die Strukturen, die auf Silizium geätzt werden können, werden immer kleiner. Der erste Intel-Prozessor (4004, 1971) wurde in 12.000-nm-Technologie gefertigt. Heute liegen wir bei 3–4 nm, TSMC hat einen 2-nm-Prozess angekündigt. Doch in diesem Bereich können Quanteneffekte nicht mehr ignoriert werden – diese treten ab etwa 5 nm Transistorgröße zunehmend auf. Die Strukturbreite korreliert mit der Größe des Transistors: Beim 10-nm-Prozess ist ein Transistor etwa 32 nm groß, beim 2-nm-Prozess rechnet man mit etwa 7 nm. Da die Beugung des EUV-Lichts bei kleineren Strukturen stärker wird, steigt der Platzbedarf der Transistoren relativ zur Strukturbreite sogar wieder. Die Grenze ist also nicht mehr fern.
Experimentell wurde bereits ein 1-nm-Gate aus Molybdändisulfid gefertigt. Doch das ist kein Halbleitermaterial – und es handelt sich nur um ein Gate, nicht um einen funktionierenden Transistor. Die Technologie ist zudem nicht mit der Chipfertigung kompatibel.
Ich denke, wir werden in wenigen Jahren das Ende der Fahnenstange erreicht haben.
Wie geht es dann weiter? Man kann – wie bei Flash-Speichern – in die dritte Dimension gehen. Intel und AMD haben bereits begonnen, Prozessoren in einzelne Chiplets aufzuteilen. Diese lassen sich stapeln, ebenso wie DRAM-Bausteine, die dann direkt an die CPU angebunden werden – was die Geschwindigkeit erhöht. Dadurch können die riesigen Caches, die aktuell den Großteil der Chipfläche einnehmen, wieder verkleinert und durch mehr Logik ersetzt werden – was die Leistung steigert. Aber all das ist aufwendiger und teurer.
Ich wage zu prognostizieren: Die IT-Industrie wird in wenigen Jahren dort angekommen sein, wo andere Industriezweige längst sind – Innovation erfolgt nur noch evolutionär. Den Trend sehen wir bereits seit 20 Jahren.
Ich denke, es ist einen Versuch wert. Der Artikel an sich ist interessant und bedarf keiner Korrektur. Ich als (mehr oder weniger) PC-Laie stolpere jedoch, wenn du bspw. von einem „EAM“ schreibst.
In den Moment beginne ich zu grübeln: EAM…EAM, was war das noch mal? Dann liest man weiter und dann ergibt es sich. (RAM).
Wenn’s nicht zu viel Aufwand für dich ist, ist es einen Versuch wert, der ki zu befehlen, die Tippfehler zu entfernen.
Ansonsten: danke für den Blog!
Das Problem das ich habe ist das zwar meine Textverarbeitung (Libreoffice) zwar Rechtschreibfehler markiert, aber eben auch alles was ich an Fachausdrücken verwende. Meine Artikel sind so durchzogen von roten Linien und irgendwann hört man auf auf die zu achten. Da hilft es auch nicht das Wort ins Wörterbuch aufzunehmen, es wird trotzdem rot markiert, ich vermute weil nach der internen Rechtschreibprüfung noch das Languagetool nachgeschaltet ist. Bei Tippfehlern ein Tipp: auf der Tastatur schauen welcher Buchstabe neben dem Tippfehler ist und das ist eben neben dem E das R.