Chancen und Probleme

Ruhezustand - Mit Shift beim Anklicken sichtbar gemachtDie Computerindustrie ist in einer Krise. Nicht wegen der aktuellen Wirtschaftskrise, sondern allgemein. An immer mehr Fronten ist zu erkennen, das das Wachstum langsamer wird, wenn nicht Stillstand zu erkennen ist. Seit über 40 Jahren lebt die Branche nach dem Moorschen Gesetz, wonach (je nach Autor sich alle 12-24 Monate alles verdoppelt). Wahlweise Speicherplatz, Geschwindigkeit, Taktfrequenz.

Doch das ist schon lange nicht mehr überall so. Die Taktfrequenzen sind seit Ende 2002 kaum noch angestiegen, zeitweise sogar wieder gesunken. Die 3 GHZ Marke ist eine Grenze die nur noch wenige Prozessoren knacken. Bei der Größe von Festplatten hat sich auch seit 2 Jahren nicht mehr viel getan. Seitdem ist die Datendichte um ein Drittel gestiegen, doch das ist nichts im Vergleich zu den rapiden Zuwächsen zuvor. Wenn es heute 2 TByte Modelle zu kaufen gibt, dann weniger weil mehr pro Platte rauf geht als vielmehr dass nun mehr Platten im Stapel ihre Kreise drehen.

Schlimmer noch sind die Hersteller von PC Prozessoren dran: Zwar können sie noch immer die Integrationsdichte ihre Prozessoren steigern, aber nicht mehr die Leistung pro Kern. Stattdessen werden es immer mehr Kerne. Das Problem: Wer braucht viele Kerne? Die meisten Prozessoren gehen in Desktop PCs. Hier brachte der zweite Kern eine echte Verbesserung: Ein Kern steht nun immer zur Verfügung wenn ein zweiter Kern im Hintergrund beschäftigt ist. (Bei den meisten wohl mit dem Virenscanner, seit ich den Duden Korrektor kenne, würde ich jedem der diese Software auch einsetzt zu einem Zweikernprozessor raten, denn er blockiert nach dem Laden je nach Dokumentlänge recht lange einen Kern).

Doch dann war es das auch schon: Beim Privatanwender ist es äußerst selten das mehr als zwei Dinge gleichzeitig laufen die viel Rechenpower brauchen. Selbst wenn, dann denke ich gibt es schnell andere Dinge, welche die Geschwindigkeit limitieren – es gibt nur eine Festplatte im System und nur einen Speicher und nur eine Grafikkarte – es ist recht unwahrscheinlich, dass ein Prozessor nur rechnet, aber keine Daten von der Festplatte braucht.

Die ct’  Redaktion hatte kürzlich Probleme Software für einen Test von Workstations mit Achtkernprozessoren zu finden, welche alle Kerne auslastet und das dürfte auch so bleiben. Beim Desktop PC wartet der Computer meist auf den Anwender. Und die Anwender haben dies begriffen. Die Sparte die den größten Zuwachs in dem letzten Jahr hatte war bei Intel die Atom Reihe. Die Atom Prozessoren sind Einkern CPU’s mit einer stark vereinfachten Architektur und kleiner Taktfrequenz von maximal 1.6 GHz. Je nach Typ ist ein Atom in etwa so schnell wie ein 5 Jahre alter Desktop Prozessor. Zu langsam für Windows Vista. Aber das juckt die Leute nicht. „Its good enough“ – er steckt in den Netbooks und es gibt schon 200-300 PCs für den Desktop mit ihm. Fürs Surfen vollkommen ausreichend.

Das Gegenteil ist ein Projekt von Intel, dass sehr viele Recheneinheiten (nicht Kerne, da sie nicht unabhängig ein Programm ausführen können) auf einen Prozessor zu packen. Intel will damit den Grafikchips Konkurrenz machen bei denen bis zu 512 Recheneinheiten werkeln. Umgekehrt versuchen diese die Recheneinheiten als Prozessorersatz anzubieten für Dinge die immer gleiche verlaufen. Bei einigen Anwendungen bei denen das möglich ist wie das Knacken von Schlüsseln für Passwörter oder Videokodierung sind die schnellsten Grafikkarten etwa 30 mal schneller als der schnellste Intel Prozessor.

Doch auch dies wird nur einen Teil der Anwender interessieren. Auch wenn die Spielebranche es nicht wahrhaben will: Die meisten PCs werden nicht zum Spielen gekauft und die Zahl der echten Gamer die viel Geld für eine leistungsfähige Grafikkarte ausgeben ist klein.

StandbyWie wird es in Zukunft weitergehen? Nun man weiß es nicht. Vielleicht hier mal meine Idee, was ich für eine gute Vorstellung halte:

Es wird noch mehr unterschiedlich leistungsfähige Prozessoren als heute geben. Waren es vor 15 Jahren zwei Familien (386 und 486) mit unterschiedlichen Taktfrequenzen, die vielleicht in der Leistung um den Faktor 5 auseinander lagen so ist heute der Unterschied zwischen einem Atom und einem Achtkern enorm – nicht nur in der Leistung, sondern auch im Preis. Viel mehr als heute werden sich vielleicht PCs in der Nutzung unterscheiden. Was ich mir wünsche ist, dass sich in Zukunft dann auch wieder clevere Lösungen durchsetzen. Schicke PCs die leise sind und klein. Dann eben nicht ausbaubar, Vor allem denke müssen auch intelligente Lösungen zum Energiesparen her. Bei den Prozessoren hat sich da ja einiges getan. Anstatt 90-105 Watt wie vor einigen Jahren verbraucht das Groß nur noch 35-65 Watt. Aber die Prozessoren sind nur ein Aspekt. Wenn dieser in den Idle zustand geht läuft trotzdem die Festplatte weiter und das Display leuchtet in voller Helligkeit. Ich würde mir hier intelligentere Lösungen denken. Displays, die wenn ab einer bestimmten Zeit keine Benutzeraktivität kommt langsam dunkler werden und sich schließlich abschalten. Festplatten mit Flash Pufferspeicher, die sich nach kurzer Inaktivität abschalten und zuerst die (voraus gelesenen Daten) aus dem Cache liefern wenn sei wieder anlaufen. DRAM Speicher mit Flash Speicher als Kopie, der den Inhalt umkopiert wenn längere Zeit kein Zugriff kommt und dann die Stromversorgung abschaltet.

Gerade mit Flash Speicher als Reservespeicher könnte man den Ruhezustand recht nützlich gestalten. Sie kennen sicher auch den Ruhezustand (wenn nicht drücken sie mal auf die Shift Taste, wenn sie das Dialogfeld für Herunterfahren haben. Damit wird der gesamte Inhalt des Computers auf die HD gesichert und nach dem Neustart wird er restauriert. Das finde ich ist eine tolle Sache. Ich nutze es aber nur wenn ich weiß, dass ich mal ne Stunde weg vom PC bin. Der Grund : Erst durchläuft der PC den üblichen Boot Vorgang und dann wird der Inhalt restauriert. Das dauert bei 2 GB Speicher und einer nicht so modernen Festplatte alleine etwa ne Minute. Wenn es sehr schnell in Flash RAM umkopiert werden könnte und ein Motherboard erkennen kann beim Einschalten, dass der Computer zuletzt im Ruhezustand ausgeschalten wurde (und dann den Boot Vorgang verkürzen würde). Dann wäre das eine tolle Sache, die auch automatisch bei längerer Abwesenheit des Benutzers initiiert werden könnte.

Bleibt noch der letzte Stromfaktor: Die Grafikkarte. Eine Grafikkarte verheizt bei einem Spiel viel Energie, aber sie braucht auch viel wenn kein Spiel läuft, obwohl hier nur ein Teil ihrer Rechenleistung gefordert ist. Das ist höchst ineffizient, vor allem haben viele PCs eine Grafikkarte des Low- und MiddleSgements an Bord, damit man ab und an ein PC spielen kann, wenn auch nicht gerade den neuesten Ego Shooter. Doch anders als bei den Gamern wird da die Grafikkarte im Desktop Alltag noch weniger gefordert. (Die Gamer geben zwar viel für ihre Karte aus, aber die spielen dann auch wenigstens den ganzen tag). Es gibt schon heute eine Lösung: Die Chipsatz Grafik macht im Normalfall die Bilder bei normalen Windows Anwendungen und schaltet dann die Grafikkarte ab. Wenn ein Spiel laufen soll so wird die Grafikkarte aktiviert und die Chipsatzgrafik deaktiviert- eine intelligente Lösung, funktioniert aber nur wenn beides vom selben Hersteller stammt. aber besser wäre es auch hier wenn die Grafikkarte selbst intelligent genug wäre. Zum Beispiel kann man 2D und 3D Teil trennen, genauso den Videospeicher und dann die Hauptverbraucher (GPU und der größte Teil des Speichers) abschalten.

Nachhaltigkeit ist ein gutes Stichwort. Die PC Branche hat noch nicht die Energieproblematik erkannt. Dabei sind Computer inzwischen für einen guten Teil unseres Stromverbrauchs verantwortlich. Wo reagiert wurde, da nicht aus dem Bewusstsein heraus, Energie einzusparen, sondern weil äußerer Druck kam: Intel bekam irgendwann einmal massive Probleme die erzeugte Abwärme mit Kühlern abzuführen und noch größere Gehäuse gingen einfach nicht mehr um noch größere Kühler aufzunehmen. Gleichzeitig steig diese Verlustleistung exponentiell mit der Taktfrequenz. Daher gab es ein Umdenken. Das zweite war, dass Rechenzentren genau das gleiche Problem hatten und in den Gesamtkosten nun die Klimaanlagen und Stromrechnungen einen immer größeren Posten ausmachten – Da konnte sich IBM mit umgebauten Embedded PowerPC Prozessoren einige Einträge in er Top 100 Liste sichern, denn diese verbrauchten pro TFlop erheblich weniger Stroms als Intels Renommee Exemplare.

So wird es auch bei anderen Herstellern wohl erst noch Druck geben müssen, das ein Umdenken erfolgt. Die Wirtschaftskrise kann ein solcher Druck sein – der Hersteller dessen Produkte innovativ aber auch energiesparend sind hat sicher einen Vorteil in einem nun viel kleineren Markt und kann so überleben. Nicht alle haben das allerdings kapiert: So hörte ich in einem Beitrag über Grönlands IT Szene, dass dieses Land allen ernstes sich anpreist als Server-Standort: Kalte Luft zum kühlen gibt’s in Masse, die Klimaanlage kann entfallen (Warum benutzt ihr nicht wenigstens die Server Farm als Blockheizkraftwerk?)

3 thoughts on “Chancen und Probleme

  1. Danke für den interessanten Artikel! Eine Rückfrage. Du schreibst:

    „Gleichzeitig steig diese Verlustleistung exponentiell mit der Taktfrequenz.“

    Bist Du sicher, dass das stimmt? Bei gleicher Technologie und Strukturgrösse (z.B. 45 nm) steigt die Verlustleistung linear mit der Anzahl Transistoren und quadratisch mit der Speisespannung. Leckströme nehmen mit kleineren Strukturen zu, hingegen nimmt die Speisespannung ab.

    Von einer exponentielle Verlustleistungszunahme mit der Taktfrequenz habe ich noch nie etwas gehört. Ich erwarte eher eine sub-lineare Zunahme.

    Viele Grüsse,
    Lukas

  2. Nein, es suind in der Tat Leckströme, die mit dem Umbewegender Ladungen bei jedem taktimpuls zusammenhängen. Das unproportional hohe Ansteigen dieser hat der alten Pentium 4 Architektur den Kragen gekostet, die nach Intel Angaben eigentlich bis 7-10 GHz Takt vorgsehen war.

    Wenn es diese nicht gäbe, warum erreicht dann kein heutiger Prozessor mehr den Spitzentakt eines Pentium 4 von 3.73 GHz aus dem Jahre 2004?

    Schau mal die älteren ct‘ Hefte durch, da steht das immer wieder mal drin.

  3. Wenn ich mich hier mal einklinken dürfte: Die Situation ist ein wenig komplizierter. Bei alten Technologien kommt die Verlustleistung im wesentlichen von den Umladeströmen, die beim Wechsel von logisch 0 auf logisch 1 und umgekehrt entstehen. Dieser Effekt ist linear zur Taktfrequenz, weil die zum Umladen benötigte Energie pro Schaltvorgang eine Konstante ist.

    Bei den Technologien ab 90 nm abwärts kommen massiv Leckströme dazu. Das sind allerdings Ruheströme, die immer fließen und unabhängig von der Taktfrequenz sind. Sie hängen aber mit der Geschwindigkeit der Logik zusammen: Schnell schaltende Transistoren haben große Leckströme und langsam schaltende Transistoren haben kleine Leckströme. Dieser Effekt ist hochgradig nichtlinear. Ein Transistor, der doppelt so schnell schaltet, kann den zehnfachen Leckstrom haben. Früher hat man alle Transistoren so aufgebaut, dass sie möglichst schnell schalten. Heute baut man die Transistoren teilweise bewusst so, dass sie langsamer schalten, um kleinere Leckströme zu erreichen.

    Ein Prozessor nur aus diesen schnellschaltenden Transistoren hätte eine Verlustleistung, die nicht beherrschbar wäre. Deshalb nimmt man überwiegend langsam schaltende Transistoren und setzt die schnell schaltenden nur an besonders zeitkritischen Stellen ein. Bestimmt wären mit den schnell schaltenden Transistoren erheblich höhere Taktfrequenzen nötig, aber wenn man nach Rechenleistung pro Watt optimieren will, sind aufgrund des nichtlinearen Zusammenhangs mehrere langsamere Kerne viel besser.

    Es gibt übrigens noch einen zweiten Effekt, der die erreichbare Frequenz begrenzt, nämlich dass in vielen Fällen die Leitungen zwischen den Transistoren viel mehr Zeit kosten als die Transistoren selbst. Immer dünnere Leitungen haben natürlich einen immer größeren Widerstand. Da die Leitungen z. B. mit den Masse-Leitungen Kondensatoren bilden, verhält sich jede Leitung wie ein Tiefpass. Bei einer 90 nm Technologie schaltet ein einfaches Gatter in 50 ps, eine Leitung von ein paar mm Länge kann aber eine Leitungsverzögerung von 1 – 2 ns haben. Man muss also zur Erreichung einer hohen Taktfrequenz die Anordnung der Transistoren nach minimaler Leitungslänge optimieren. Das ist aufwendig und damit teuer und geht natürlich nur, wenn die Funktion nicht allzu komplex ist.

    Je kleiner die Strukturgröße, desto billiger die Chipfläche und desto höher die Entwicklungskosten. Selbst wenn ein Prozessor mit 7 – 10 GHz in der Verlustleistung beherrschbar wäre, er wäre in der Entwicklung nicht zu finanzieren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.