Home Computer Prozessor Basics Site Map counter

Dezentralisieren und Spezialisieren

Einführung

Eine Technik die Rechenleistung zu erhöhen war es schon immer Aufgaben zu trennen und auszulagern. Heute gibt es zwei Wege bei der Technologie : Die Generalisten und die Spezialisten.

Ein Blick zurück : Supercomputer

CRAY Y-MP8Wer sich in den siebziger und achtziger Jahren einen Supercomputer von Cray oder CDC kaufte, der konnte diesen alleine nicht einsetzen. Der Rechner konnte schnell rechnen, aber er hatte keinerlei Anbindung an gängige Peripherie. Als der Autor 1985 sein Studium in der Uni Stuttgart aufnahme. Bekam diese eine neue Cray 2. doch damit diese arbeiten konnte gab es noch 2 Großrechner, welche nur für die Ein/Ausgaben zuständen waren. Sie druckten Ergebnisse aus, nahmen Eingabe von Terminals entgegen, schrieben Daten auf Platten und Magnetbändern. Später gab es noch vorgeschaltete grafische Workstations welche die Daten in Bilder umsetzten.

Der Supercomputer wurde als "Number Cruncher" bezeichnet - eine Spezialanfertigung zum Verarbeiten von Zahlen in immer der gleichen Weise. vielleicht vergleichbar heute mit der Fliesskommaeinheit eines Prozessors. Für alles andere waren anderen größere und kleinere Rechner zuständig die vorgeschaltet waren und nur den Zwecke hatten den Supercomputer von den alltäglichen Aufgaben zu entlasten.

Auch wer einen Großrechner kaufte hatte neben der eigentlichen CPU oft einen I/O Prozessor für den Datenaustausch und manchmal auch einen Speichercontroller der die Daten aus dem Cache in den Speicher und zurück schaufelte oder dem I/O Prozessor die Daten übergab.

PC Ursprünge

IBM PCAuch bei dem IBM PC findet man noch diese Unterteilung. Es gab den Prozessor 8088 oder 8086, die eigentliche CPU. Doch ergänzt wurde diese durch Pheripheriebausteine für serielle und parallele Schnittstelle, Timer, Interruptcontroller, Memory Management Unit. Diskettencontroller, Festplattencontroller und Grafikkarte waren eigene Subsysteme mit einigen Dutzend Chips. Dazu gab es den Coprozessor 8087, mit dem mathematische Berechnungen schneller durchgeführt wurden. So konnte man eine serielle Schnittstelle betreiben, ohne das der Prozessor nichts anderes machen konnte als nur auf die Daten zu warten.

Auf dem Bild rechts sind die zahlreichen Chips zu erkennen. Kenner der Materie sprechen auch gerne von einem "TTL-Grab", da man viele TTL Bausteine brauchte um die einzelnen Chips miteinander zu verbinden, damit sich nicht jeder angesprochen fühlte wenn die CPU auf den Speicher zugriff.

Veränderungen

In den achtziger Jahren wurde die Zahl dieser Bausteine immer geringer. Zum einen integrierte man immer mehr Funktionen in einen speziellen Baustein, den Chipsatz, der einige niedrig integrierte Bausteine ersetzte. Zum anderen wurde auch in die CPU einiges integriert wie z.B. der Coprozessor und die Memory Management Unit. Danach übernahm der Chipsatz auch Funktionen die vorher auf Steckkarten saßen - Festplattencontroller, Soundkarte und Netzwerkanschluss wanderten auf das Motherboard. Ende der neunziger Jahre war der Stand erreicht, der auch heute noch gültig ist: Im Prinzip kann man einen PC bauen ohne eine Zusatzkarte zu benötigen. Die gesamte Funktionalität steckt in einigen hochintegrierten Bausteinen auf dem Motherboard und dem Prozessor.

Neue Anwendungen

Die neunziger brachten zahlreiche neue Anwendungen auf den PC. Grafikkarten beschränkten sich nicht nur darauf einen Speicherinhalt auf dem Bildschirm wiederzugeben sondern wurden intelligent. Das erste waren ab 1992 die Windows "Beschleuniger" Karten. Grafikkarten die einfache Kommandos des Windows API wie Linien oder Kreise zeichnen nativ ausführen konnten. Im Laufe der Zeit wurde daraus immer mehr. Zu einer 2D Beschleunigung kam eine 3D Beschleunigung. Später berechnete die Grafikkarte sogar das ganze Bild und bekam von der CPU nur noch die Daten wo sich Objekte befinden und wie sie sich bewegen.

Eine heutige Grafikkarte der oberen Preisklasse hat eine Rechenleistung welche die CPU weit übertrifft. Dies gilt auch bei der Anzahl der Transistorfunktionen.  Dasselbe trifft auf andere Gebiete zu. 3D Suround Sound berechnen, Digitale Videos in HDTV dekodieren und darstellen, dafür braucht man einiges an Rechenleistung. Vor allem aber handelt es sich jeweils um beschränkte Aufgaben, ähnlich wie vorher ein I/O Chip nur Daten transferieren musste, muss ein Decoderchip zwar fähig sein Material in Echtzeit zu dekodieren, aber er muss nichts anderes können.

Mehrkernprozessoren

Die CPU Hersteller haben darauf reagiert und versucht Techniken von Signalprozessoren wie SIMD (Single Instruction Multiple Data) und VLIW (Very Long Instruction Word) zu implementieren. Leider blieb die Unterstützung für diese neue Techniken bislang hinter den Erwartungen von Intel und AMD zurück. Es gibt zwar für die Entwicklungen die sich hinter Namen wie MMX, 3DNow!, SSE, SSE2, SSE3 immer gute Beispiele die sie einsetzen, doch die meisten Anwendungen ignorierten sie.

Seit Ende 2002 steigen die Taktfrequenzen von Prozessoren kaum noch an, weil die Leckströme und damit der Stromverbrauch im Quadrat mit der Taktfrequenz ansteigen. Als Folge haben Intel und AMD mehrere Prozessorkerne auf einem Chip integriert, die Taktfrequenz jedoch beibehalten. Dies wird so weitergehen, d.h. eine Leistungssteigerung wird es in Zukunft nur geben wenn eine Anwendung es versteht mehrere Kerne zu nutzen.

Einer für alle oder Alle für einen ?

Geht es nach dem Willen von Intel und AMD, so sollte den Großteil der Arbeit die CPU, also der Prozessor erledigen. Logisch, denn damit kann man sehr viel Geld verdienen. Wie an anderer Stelle erwähnt, hat man in den letzten Jahren den Befehlssatz der CPU erweitert und die Funktionseinheiten intern erhöht um diesen Bedürfnissen nachzukommen. Ein wesentlicher Unterschied der neuen Anwendungen zu klassischen PC Arbeiten wie Textverarbeitung oder Surfen ist dass die Aufgabe begrenzt ist. Eine HDTV Dekodierung ist die Anwendung einiger einfacher Dekompressionsalgorithmen. Im wesentlichen eine Fourier Transformation.  Man kann einen Baustein entwickeln der nur dies leistet und er kostet den Bruchteil einer CPU (wie sonst wäre ein DVD Spieler für 50 Euro möglich).

Die CPU Hersteller haben ihre Befehlssätze so erweitert, dass auch ein Pentium 4 oder Athlon 64 dies effektiv kann und wegen der hohen Taktgeschwindigkeit sogar schnell. Mit Mehrkernprozessoren kann man diese Datenverarbeitung sogar effektiv aufteilen. Den 2005 vorhandenen Dual Core Prozessoren sollen schon 2007 Prozessoren mit vier Kernen und 2008 Prozessoren mit acht Kernen folgen. Für "normale" Aufgaben  wie Textverarbeitung, Internet Surfen wird man nur einen Prozessor brauchen. Diese Aufgaben kann man nicht oder nur kaum parallelisieren. Also suchen AMD und Intel nach neuen Aufgaben für die weiteren Kerne.

Doch dies hat auch Nachteile. Die CPU's brauchen viel Strom und erzeugen viel Abwärme, die wiederum muss abgeführt werden - mit Lüftern und das erzeugt Lärm. Es hat sich hier viel in den letzten Jahren getan, doch mit dem Stromverbrauch spezialisierter Chips kann noch kein PC Prozessor mithalten. Sollte es gelingen Kerne gezielt schlafen zu legen, so könnte sich zumindest der Stromverbrauch bei normalem Betrieb senken lassen. Die Kühlung wird trotzdem für den Maximalbedarf auszulegen sein.

So gibt es heute zwei Welten: Zum einen Konsumer Elektronik, in denen einfache Signalverarbeitungsprozessoren für einige Euro werkeln und die eben nur DVD's abspielen können oder nur 3D Sound erzeugen. Ein DVD Spieler braucht keinen Lüfter und passt in ein Slim-Line Gehäuse.

Und es gibt den PC der alles kann, aber viel teurer, schwerer, größer und lauter ist. Der ideale Zwischenweg: Einen PC zu erweitern, wenn der Hauptprozessor zwar noch für den Alltag taugt aber kein HDTV mehr ruckelfrei wiedergeben kann, wird heute noch selten beschritten. Er war üblich, als 1999 PC's DVD abspielen sollten und die Prozessoren dafür zu langsam waren. Dann baute man eine MPEG Dekodierkarte ein, welche diesen Job übernahm.

Doch seit einigen Jahren werden die PC Prozessoren kaum noch schneller. Es fehlt das Argument, der neue PC ist automatisch x mal schneller als der Alte und vielleicht könnten Nachrüstkarten für HDTV (dafür braucht man einen 3 GHz Prozessor) wieder attraktiv werden.

Wenn (ob dies geschehen wird ist noch offen) die PC Industrie einmal den Status erreicht den heute andere Industrien haben - dass man ein Produkt nur dann neu anschafft wenn das alte defekt ist und man weg von Lebenszeiten von 3-4 Jahren für einen PC kommt, dann dürfte die Aufrüstoption für neue Anwendungen mit Spezialkarten wieder interessant werden. Der zweite Markt sind Geräte die nicht universell sind und die heute schon bedeutend sind - DVD und Festplattenrekorder, DVB Empfänger, tragbare Videoplayer. Für all diese reichen preiswerte Signalprozessoren aus. Da diese Geräteklasse in den letzten Jahren ein beträchtliches Marktsegment erobert hat boomt derzeit auch der Absatz dieser Prozessoren.

Natürlich kann es auch ganz anders kommen - schaffen es AMD und Intel immer mehr Kerne in eine CPU zu integrieren und diese nur zu aktivieren wenn man sie braucht, dann könnten diese Aufgaben übernehmen welche heute die Grafikkarte inne hat. Ein interessanter Weg ist da der Cell Prozessor : Ein Prozessor mit einem vollwertigen Power PC Kern und 8 Cell Recheneinheiten welche nur schnell Fliesskommarechnungen durchführen können. Gedacht ist der Prozessor für Sonys Playstation 3, die dadurch zu beeindruckender Rechenleistung kommen soll.


Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.

© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Neues Hier werben Bücher vom Autor Buchempfehlungen Top 99