Wenn man von den Anfängen der PC-Industrie spricht, so erwähnt fast jeder Beitrag die Erfindung des Mikroprozessors. Der erste verfügbare war der Intel 4004 der im November 1971 erschien. er war nicht der erste, Texas Instruments hatte das Prinzip vorher patentiert, ihr TMS 1000 Mikroprozessor erschien aber später auf dem Markt. Frei verfügbar war er erst ab 1974, doch schon 1972 verbaute ihn TI in ihren Taschenrechnern, sodass die Firma kommerzielle erheblich erfolgreicher als Intel die Erfindung umsetzte.
Ich sah das lange Zeit anders und habe in der ersten Auflage meines Buchs Computergeschichte(n)
Nun wir komme ich zu dieser Meinung? Die bisherige Hardwareentwicklung war von einigen Sprüngen geprägt. Nach der Erfindung des frei programmierbaren Computers durch Zuse war die erste Verbesserung die Einführung der Röhrentechnik die viel schneller schalten konnte. Mechanik wurde durch Elektrik ersetzt: Röhren schalten durch beschleunigte Elektronen die von einer Kathode emittiert werden. Auf Röhren basierten die meisten Rechner der Vierziger und fünfziger Jahre. Röhren wurden von diskreten Transistoren verdrängt, die robuster, kleiner und energiesparender waren. Da kein Hochspannungsfeld aufgebaut wurde schalteten sie auch schneller. Transistoren steckten von Ende der Fünfziger Jahre bis Ende der sechziger Jahre in den Rechnern. Vom Prinzip her arbeiteten auch integrierte Schaltungen nach demselben Prinzip wie Transistoren. Doch sie erlaubten es die Schaltungen flächig anzulegen, zu verkleinern (das war bei Transistoren, die verlötet werden mussten, bald nicht mehr möglich) und in Serienbauweise zu bedrucken. Gerade diese Entwicklung machte Computer entscheidend billiger.
Den Mikroprozessor sah ich nur als Folge der integrierten Schaltung. Sie war 10 Jahre vorher auf den Markt gekommen und die Integrationsdichte war von wenigen Elementen auf über 1000 in diesem Jahrzehnt angestiegen. Irgendwann war die Integrationsdichte so hoch, das es für die Elemente einer einfachen CPU reichte. Ein Mikroprozessor hatte keine Elemente an Bord, die nicht auch eine größere CPU hatte, nur waren sie dort auf Hunderten von Bausteinen verteilt. Das war meiner Ansicht nach nur eine folge des Moorschen Gesetzes, nicht aber eine Erfindung.
Doch als ich mich immer mehr mit Crays Rechnern beschäftigte und schließlich mit dem Scheitern an der Cray 3 dämmerte mir die eigentliche Bedeutung. Was Cray zum Verhängnis wurde, aber auch der Grund ist warum es heute keine Computern mehr mit Prozessoren gibt, die nicht in einem Chip stecken, waren die Wege im Computer. Je höher der Takt war, desto mehr mussten die Komponenten zusammenrücken. Schon bei Crays erstem Supercomputer der CDC 6600 gab es bei der Entwicklung Probleme das durch den hohen Takt lange Leitungen wie Antennen und Sender wirkten und sich Störungen ausbilden konnten. Es gab aber noch keine Probleme den Rechner auf viele Schränke zu verteilen. Bei der Cray 1 mit 80 MHz Takt musste Cray schon zu einer Anordnung in einem Kreis übergehen um die Wege zu minimieren. Das Resultat war formschön und unterschied sich von den üblichen Schränken in denen sonst die Rechner steckten.
Bei der Cray 2 musste bei 250 MHz der Rechner noch kleiner werden und er passte nun in ein Kabinett, nicht größer als ein US.-Kühlschrank. Dank Inmersionskühlung war dieser aber einige tonnen schwer. Diese Kühlungsmethode war die Innovation die den Rechner schneller machen. Bei der Cray 3 gab es keinen weiteren Trick, man packte die Module dreidimensional zusammen um die Wege zu verkürzen, sodass die CPU nur in den obersten 20 cm des Rechners steckte. trotzdem gelang es Seymour Cray in 10 Jahren den Takt nur zu verdoppeln.
Das war das Ende. In den 500 MHz mit denen die Cray 3 lief, legt ein Signal in einer elektrischen Leitung etwa 40 cm zurück. (Elektrische Signale legen etwa 200.000 km/s in Kupferleitungen zurück). Nun muss jedes Element in einem Computer während dieses Taktes erreicht werden, dabei durchlaufen die Signale nicht nur Leitungen sondern auch Gatter um zu Schalten und diese Gatter verursachen weitere Verzögerungen. Der Computer muss also kleiner als 40 cm sein und da er nach wie vor aus vielen Chips bestand limitierte das den Takt.
Ein Mikroprozessor ist kleiner, typisch ist eine Kantenlänge von 10 bis 25 mm. Damit kann er einen viel höheren Takt erreichen. Dadurch konnten Mikroprozessoren schließlich alle anderen Prozessoren (aus vielen Chips) verdrängen. Sie konnten viel schneller werden. Das Problem wurde aber nur verschoben, denn heute gibt es keine Prozessoren mit einem Takt größer als 3 bis 5 MHz, ein Takt der eigentlich schon 2003 erreicht wurde. Das beruht auf der gleichen Tatsache: Bei 5 GHz darf das Signal dann eben nur noch 4 cm zurücklegen und dfa ist man bei dem Weg den eine verwinkelte Leiterbahn auf einem Chip hat.
Die Lösung wäre es die Prozessoren weiter zu verkleinern, was auch kein Problem wäre. Das Pentium-Design basiert auf rund 5-6 Millionen Transistoren, es ist ein recht gutes Design das Intel für den Xeon Phi wieder aufgriff. Bei heute bis zu 7 Milliarden Transistoren könnte man so 1000 Prozessoren auf der Fläche unterbringen die ein großer Prozessor heute belegt mit der Folge das jeder nur noch 1 mm² groß wäre – zehn bis dreißigmal höherer Takt wäre möglich. Man macht es aus einigen einfachen Gründen nicht: Da man um jedes Die einen Abstand halten muss beim Zersägen des Wafers steigen die Verluste deutlich an wenn die Chips kleiner werden und vor allem kann man die Anschlüsse (Pins) nicht beliebig verkleinern. Bei 1000 Prozessoren müsste man viel mehr Pins unterbringen und das wird schwierig.
Wir brauchen also eine neue Erfindung. Vielleicht eine deren Bedeutung ich auch sofort erkenne.