Das Ende der PC Revolution – Teil 3

Ich habe das Thema ja schon mal aufgenommen. Es ist abzusehen, dass die bisherigen exponentielle Wachstumskurve bei den Chips sich abflachen wird und vielleicht zum Stillstand kommt. Ich habe mich schon mal mit dem technischen Aspekt beschäftigt: Basis für eine weitere Steigerung ist im Prinzip die Verkleinerung der Strukturen. Dazu benötigt man immer kurzwelligeres Licht. Die Erzeugung von Extremer UV-Strahlung ist aber aufwendig und der Wirkungsgrad ist gering, optische Elemente müssen außerordentlich hohe Genauigkeiten aufweisen, bei der nächsten Generation im Bereich von Atomdurchmessern. Das ist der technische Aspekt, denn ich schon mal erläutert habe.

Der zweite Aspekt ist der finanzielle. Eine Chipfabrik der nächsten Generation kostet schon 4 Milliarden Dollar. In dem Maße in dem die Fertigung aufwendiger wird, steigen die Kosten an. Schon heute ist es so, dass die aktuelle Strukturbereite (45 nm) nur von wenigen Firmen beherrscht wird, weil einfach die meisten sich die Investitionen nicht leisten können. Neben den beiden Großen IBM und Intel sind es vor allem Allianzen. Die anderen Halbleiterfirmen schließen sich zusammen und betreiben zusammen eine Fabrik. Das ergibt sich einfach daraus, dass die Investitionen nur bei sehr hohen Stückzahlen und/oder hohen Gewinnen hereinkommen. Das klappt vielleicht bei den schnellsten CPU’s für PCs oder GPU’s, aber sicher nicht bei Chipsätzen, Embedded Prozessoren etc. die zu ganz anderen Preisen verkauft werden.

Das ist auch der Grund, warum ARM Prozessoren oder andere RISC Konzepte soweit in der Leistung hinter einem aktuellen Core X von Intel hinterherhinken. Die Architektur mag veraltet sein, aber 1 Milliarde Transistoren rechnen bei 3 GHZ eben schneller als 100 Millionen bei 1 GHz, auch wenn man sie nicht optimal ausnutzt.

Was wird passieren: Irgendwann wird die Fertigung so teuer sein, dass auch Intel und IBM mit anderen Firmen zusammen gehen und es vielleicht noch 1-2 Firmen gibt welche die aktuelle Generation entwickelt und etwas später wird es wohl unwirtschaftlich werden die Strukturbreiten zu verringern, weil die Investitionskosten zu hoch werden.

Was wird dann passieren?

Wenn die Integrationsdichte nicht mehr steigt, wird die Branche dann noch mehr als heute sich evolutionär verändern. Ähnlich wie dies in anderen Branchen auch heute der Fall ist. Es ist ja heute kein Problem einen Motor zu bauen, der 350 km/h Spitzengeschwindigkeit erreicht, aber die meisten begnügen sich eben mit 200 km/h und können dafür bequemer fahren oder mehr Dinge transportieren oder einfach weniger Benzin verbrauchen. So wird es auch der Chipindustrie gehen. Man wird dann versuchen die möglichen Prozesse optimal auszunutzen Das heisst aus den Transistoren das Maximum herauszuholen, da man nicht davon ausgehen kann dass in zwei Jahren doppelt so viele zur Verfügung stehen.

Es wären mehrere Möglichkeiten denkbar:

  • eine neue effiziente Architektur – wenn es nicht automatisch alle zwei Jahre doppelt so viele Transistoren gibt wird die Zeit kommen in der man die Architektur optimiert auf die Bedürfnisse. Die heutige c86 Architektur, aber im Prinzip auch viele andere sind 10-30 Jahre alt. Einige Male erweitert worden, aber wie alle gewachsenen Dinge nicht mehr den heutigen Anforderungen angepasst. Es gibt Erweiterungen wie SSE und AVX die kaum unterstützt werden, weil wenn das der Fall ist, dann läuft sie nur auf einem Teil der PC’s – ein Totschlagsargument (ich denke das Windows selbst aus diesem Grunde wahrscheinlich nur 386 er Code umfasst). Also konstruiert man einen neuen Chip, der das leitet was man wirklich braucht.
  • Integration des Systems auf dem Chip – mehr und mehr Teile können in die CPU einziehen. Heute sind es schon die GPU. Es wird noch mehr werden. Warum nicht alles inklusive RAM und FLASH ROM auf einem Chip integrieren? Zumindest für die mobilen Geräte wäre das sinnvoll. Und die sollen ja im Kommen sein….
  • Spezialisierte CPU’s – mit vielen parallelen Einheiten für Videoverarbeitung oder großen Caches und wenigen schnellen universellen ALU’s für normale Rechner.
  • Kleine CPU’s mit wenigen Einheiten und hohem Takt – und niedrigem Preis, da sie nur noch wenige mm² groß sind.

Neue Architekturen sind nicht so problematisch für die Software, wie gedacht. Schlussendlich wird heute fast alles in Hochsprachen programmiert. Beim Mac ist die Migration über drei Prozessoren sehr gut gelungen (MC680X0, PowerPC, IAx86). Es ist auch heute nicht das Problem. Windows Mobile gibt es für verschiedene Architekturen und Software kann man auf dem PC erstellen. Das Problem ist nicht der Prozessor, sondern die Umgebung – das „normale“ Windows ist z.B. ausgelegt für die Bedienung mit Tastatur und Maus, nicht mit Stiften oder Gesten. Die Fenster haben bestimmte Größen, was schon bei den Netbooks (die ersten hatten nur ein 800 x 480 Pixel Display) dazu führte, dass bestimmte Einstellungsfenster der Systemsteuerung nicht mehr ganz auf den Bildschirm passen. Sofern man also nur den Prozessor auswechselt, gibt es keine Probleme, dagegen wird eine Generation von ultramobilen Geräten, die mal in einem Kommentar hier vorgeschlagen wurde, andere Bedienkonzepte und Anpassungen an 3″ Bildschirme erfordern.

5 thoughts on “Das Ende der PC Revolution – Teil 3

  1. Intel liegt bei ca. 80% AMD bei ca 13% Marktanteil, ich will mich nicht um Kommastellen streiten, es geht ja wirklich nur um die Größenverhältnisse. Damit hat Intel auch ein größeres Pozential um in Forschung und Entwicklung zu investieren was auch zukünftig den Vorsprung sichern könnte. Andererseits zeigt sich immer wieder, Unternehmen die sich ihrer Marktmacht zu sicher sind machen kapitale Fehler, was anderen wiederum Chancen gibt. andererseits kann man aber auch auf neue, überraschende Produktideen hoffen. Ich meine das jetzt nicht im technologischen Sinne, sondern Marketingkonzepte, wie Apple derzeit. Tablet PC waren vor 2 – 3 Jahren mal kläglich gescheitert, nun sind sie der Renner mindestens für 2011 und vielleicht darüber hinaus.
    Als technikbegeisterte Nutzer müssen wir wohl wirklich froh sein, daß AMD sich so gut behaupten kann. Solange mit einem Prozessor gutes Geld verdient wird, solange ist er auf dem Markt um eben die gewaltigen Investitionen zu amortisieren. Ich kann mich entsinnen, bei der Markteiführung der Phenom Serie von AMD stellte sich heraus, daß diese einen Designfehler auf dem Chip hatten. Als klar wurde, daß sich die Markteinführung verzögern würde hat Intel ebenfalls die Markteiführung des neuen Konkurrezchips verzögert. Er wurde umgehend aus der Preisliste gestrichen und tauchte erst später wieder auf. Würde Intel den Markt alleine bestimmen, die Prozessorentwicklung wäre wohl um Jahre zurück.
    Für hoch intressant erachte ich momentan die Bemühungen um Energieeffizienz. Das ist nicht nur für mobile Geräte auschlaggebend, sondern mehr noch im Serverbereich. Aber das wäre wirklich mal ein ganz eigenes Thema für den Blog, genauso wie es mal sehr interessant wäre intensiver in die Probleme und Dimensionen einzutauchen, die mit der Chipherstellung verbunden sind. Nach meiner Kenntnis kann eine Chipfabrik auch 5 Mrd. kosten.

    LG Frank

  2. „Warum nicht alles inklusive RAM und FLASH ROM auf einem Chip integrieren?“
    Weil RAM und Flash komplett andere Fertigungsprozesse erfordern (vom Substrataufbau her u.s.w.)

    zum allgemeinen Thema:

    Was ich im Consumer-Bereich ausmache, ist, daß sich PC und Unterhaltungseletronik immer mehr annähern. Satelliten-Receiver booten heute Linux, und PCs (Nettops) sehen aus wie kleine Designer-DVD-Player. (z.B. die ZBox von Zotac)

    Der Trend geht bei einer bestimmten Zielgruppe weg von den großen grauen lärmenden Kisten. Der Trend geht auch weg von 4, 5 oder 6 PCI-Slots, hin zu Mini-Gehäusen mit einem einzigen PCIe-Slot (Mini-ITX) und zahlreiche USB2.0 und 3.0 und E-SATA-Ports, optischer digitaler Audioausgang, HDMI…
    Die vielen Kartenslots verschwinden, weil mittlerweile soviel standardmäßog „onboard“ ist, wie es vor 20 Jahren noch unvorstellbar gewesen ist. Vor 20 Jahren brauchte ein Rechner Steckkarten für IDE-Controller und für Parallelport, vor 15 Jahren war noch die separate Soundkarte immer obligatorisch, vor 10 Jahren war auch die Grafik bei Billigrechner oft noch eine separate AGP-Karte.
    Auf Zacate Mini-ITX-Boards ist heutzutage neben o.g. Dingen ganz selbstverständlich Gbit-LAN, WLAN, Bluetooth, USB3.0, HD-Audio, Multi-Monitor-Betrieb u.s.w. onboard integriert.
    Es gibt mittlerweile schon Boards, da ist auf einem aufgelötetem Flash ein Mini-Linux fest installiert, um ohne externes Betriebssystem surfen und mailen zu können. Und es gibt im BIOS die EFI-Shell, um mit der Kommmandozeile systemnahe Wartungs- und Verwaltungsaufgaben erledigen zu können.

    Die Mini-ITX Boards mit AMD E350 „Zacate“ läuten für mich das Ende der großen grauen lärmenden stromfressenden Monster-Kisten ein.

  3. Das Ende der großen Kisten?
    Sind durch die massenhafte Verbreitung der PKWs etwa die LKWs ausgestorben? Natürlich nicht. Jeder kauft sich eben das Gerät das er braucht (oder zumindest zu brauchen meint), und so wird es auch in Zukunft bei den Computern sein.
    Klar ermöglichen kleine transportable Geräte Anwendungen, die mit den klassischen großen Kisten nicht möglich wären. Das bedeutet aber noch lange nicht daß die klassischen Anwendungen plötzlich nicht mehr gebraucht werden. Mobilität ist nun mal nur auf Kosten der Leistungsfähigkeit möglich. Und wer die Leistung braucht wird deshalb auch in Zukunft nicht um große Kisten drumrum kommen. (schon alleine ein leistungsfähiger CPU-Kühler ist größer als ein komplettes Mini-Gerät!)

  4. Ja, das Ende der großen Kisten ist da. Ganz genau.

    Mein Schreibtisch-Rechner (seit Juni 10) hat das Format eines Schuhkartons, und das größte Bauteil darin ist der CPU-Kühler Skythe Big Shuriken. Dessen Kühlfläche hat fast das ausmaß des Mainboards darunter. (Mini-ITX)
    Das Gerät hat eine ausgewachsene AM3 CPU, einen Athlon II e (efficient), ich hätte aber problemlos auch einen Phenom X4 e einbauen können.
    Das Gerät wird von einem Notebook-Netzteil versorgt, verbraucht im Leerlauf 35W und bei künstlicher Volllast 70W.
    Der Rechner bootet W7 64bit von SSD in 15s und ist (dank geregeltem Lüfter) praktisch lautlos.

    Das faszinierende an der aktuellen Entwicklung ist ja gerade, daß man für Leistung eben NICHT mehr große Kisten mit 1000Watt-Netzteil braucht.

    Leider ist das noch nicht zu allen durchgedrungen. Daher werden auch noch große Kisten verkauft, weil man es eben oft nicht anders kennt.

    Übrigens, deine Analogbildung von PKW vs. LKW ist völlig mißglückt. 1. traten beide nahezu zeitgleich auf und 2. haben sie weitgehend getrennte Einsatzbereiche, wärend ich mich auf den typischen Consumer-Bereich bezog (also EIN Einsatzbereich)und den technischen Möglichkeiten der Effizienzsteigerung, welche erst in den 2010er Jahren so richtig Fahrt aufnehmen werden.

    Denn Effizienzsteigerung und „Onboardisierung“hat nicht unbedingt etwas mit „öko“ zu tun, es verändert nachhaltig das Erscheinungsbild der PCs. Sie werden kleiner, leiser, edler, eleganter, graziler. Sie haben alle Funktionalitäten „onboard“, die man früher mit einer Handvoll Steckkarten nachrüsten mußte.

    Mini-ITX-Boards mit AMDs neuer E350 Zacate APU schießen wie Pilze aus dem Boden. Seit dem Erscheinen von Zacate E350 hat sich das Angebot an Mini-ITX-Boards verdoppelt. Viele namhafte Hersteller werfen die E350-ITXe gerade auf den Markt: Asrock, Asus, MSI, Zotac, Sapphire u.s.w. Die Boards sind allesamt so vergriffen, daß die meisten eine unbestimmte Lieferzeit haben.

Schreibe einen Kommentar zu Verkehrsvision Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.