Eine Erfindung die ich nicht erkannt habe

Wenn man von den Anfängen der PC-Industrie spricht, so erwähnt fast jeder Beitrag die Erfindung des Mikroprozessors. Der erste verfügbare war der Intel 4004 der im November 1971 erschien. er war nicht der erste, Texas Instruments hatte das Prinzip vorher patentiert, ihr TMS 1000 Mikroprozessor erschien aber später auf dem Markt. Frei verfügbar war er erst ab 1974, doch schon 1972 verbaute ihn TI in ihren Taschenrechnern, sodass die Firma kommerzielle erheblich erfolgreicher als Intel die Erfindung umsetzte.

Ich sah das lange Zeit anders und habe in der ersten Auflage meines Buchs Computergeschichte(n) die „Erfindung des Mikroprozessors“ nicht als Erfindung bezeichnet und mich dabei auf den Erfinder Ted Hoff bezogen, der selbst sagte das die CPU nicht besonders leistungsfähig war und sich schlecht verkaufte. Man konnte durch eine Handvoll MSI-integrierter Schaltkreise einen zehn bis hundertmal schnellen Prozessor erstellen, vor allem im Systempreis war dieser dem 4004 haushoch überlegen – der Prozessor verlangsamte das System enorm, sparte am Gesamt System aber nur wenig Geld ein.

Nun wir komme ich zu dieser Meinung? Die bisherige Hardwareentwicklung war von einigen Sprüngen geprägt. Nach der Erfindung des frei programmierbaren Computers durch Zuse war die erste Verbesserung die Einführung der Röhrentechnik die viel schneller schalten konnte. Mechanik wurde durch Elektrik ersetzt: Röhren schalten durch beschleunigte Elektronen die von einer Kathode emittiert werden. Auf Röhren basierten die meisten Rechner der Vierziger und fünfziger Jahre. Röhren wurden von diskreten Transistoren verdrängt, die robuster, kleiner und energiesparender waren. Da kein Hochspannungsfeld aufgebaut wurde schalteten sie auch schneller. Transistoren steckten von Ende der Fünfziger Jahre bis Ende der sechziger Jahre in den Rechnern. Vom Prinzip her arbeiteten auch integrierte Schaltungen nach demselben Prinzip wie Transistoren. Doch sie erlaubten es die Schaltungen flächig anzulegen, zu verkleinern (das war bei Transistoren, die verlötet werden mussten, bald nicht mehr möglich) und in Serienbauweise zu bedrucken. Gerade diese Entwicklung machte Computer entscheidend billiger.

Den Mikroprozessor sah ich nur als Folge der integrierten Schaltung. Sie war 10 Jahre vorher auf den Markt gekommen und die Integrationsdichte war von wenigen Elementen auf über 1000 in diesem Jahrzehnt angestiegen. Irgendwann war die Integrationsdichte so hoch, das es für die Elemente einer einfachen CPU reichte. Ein Mikroprozessor hatte keine Elemente an Bord, die nicht auch eine größere CPU hatte, nur waren sie dort auf Hunderten von Bausteinen verteilt. Das war meiner Ansicht nach nur eine folge des Moorschen Gesetzes, nicht aber eine Erfindung.

Doch als ich mich immer mehr mit Crays Rechnern beschäftigte und schließlich mit dem Scheitern an der Cray 3 dämmerte mir die eigentliche Bedeutung. Was Cray zum Verhängnis wurde, aber auch der Grund ist warum es heute keine Computern mehr mit Prozessoren gibt, die nicht in einem Chip stecken, waren die Wege im Computer. Je höher der Takt war, desto mehr mussten die Komponenten zusammenrücken. Schon bei Crays erstem Supercomputer der CDC 6600 gab es bei der Entwicklung Probleme das durch den hohen Takt lange Leitungen wie Antennen und Sender wirkten und sich Störungen ausbilden konnten. Es gab aber noch keine Probleme den Rechner auf viele Schränke zu verteilen. Bei der Cray 1 mit 80 MHz Takt musste Cray schon zu einer Anordnung in einem Kreis übergehen um die Wege zu minimieren. Das Resultat war formschön und unterschied sich von den üblichen Schränken in denen sonst die Rechner steckten.

Bei der Cray 2 musste bei 250 MHz der Rechner noch kleiner werden und er passte nun in ein Kabinett, nicht größer als ein US.-Kühlschrank. Dank Inmersionskühlung war dieser aber einige tonnen schwer. Diese Kühlungsmethode war die Innovation die den Rechner schneller machen. Bei der Cray 3 gab es keinen weiteren Trick, man packte die Module dreidimensional zusammen um die Wege zu verkürzen, sodass die CPU nur in den obersten 20 cm des Rechners steckte. trotzdem gelang es Seymour Cray in 10 Jahren den Takt nur zu verdoppeln.

Das war das Ende. In den 500 MHz mit denen die Cray 3 lief, legt ein Signal in einer elektrischen Leitung etwa 40 cm zurück. (Elektrische Signale legen etwa 200.000 km/s in Kupferleitungen zurück). Nun muss jedes Element in einem Computer während dieses Taktes erreicht werden, dabei durchlaufen die Signale nicht nur Leitungen sondern auch Gatter um zu Schalten und diese Gatter verursachen weitere Verzögerungen. Der Computer muss also kleiner als 40 cm sein und da er nach wie vor aus vielen Chips bestand limitierte das den Takt.

Ein Mikroprozessor ist kleiner, typisch ist eine Kantenlänge von 10 bis 25 mm. Damit kann er einen viel höheren Takt erreichen. Dadurch konnten Mikroprozessoren schließlich alle anderen Prozessoren (aus vielen Chips) verdrängen. Sie konnten viel schneller werden. Das Problem wurde aber nur verschoben, denn heute gibt es keine Prozessoren mit einem Takt größer als 3 bis 5 MHz, ein Takt der eigentlich schon 2003 erreicht wurde. Das beruht auf der gleichen Tatsache: Bei 5 GHz darf das Signal dann eben nur noch 4 cm zurücklegen und dfa ist man bei dem Weg den eine verwinkelte Leiterbahn auf einem Chip hat.

Die Lösung wäre es die Prozessoren weiter zu verkleinern, was auch kein Problem wäre. Das Pentium-Design basiert auf rund 5-6 Millionen Transistoren, es ist ein recht gutes Design das Intel für den Xeon Phi wieder aufgriff. Bei heute bis zu 7 Milliarden Transistoren könnte man so 1000 Prozessoren auf der Fläche unterbringen die ein großer Prozessor heute belegt mit der Folge das jeder nur noch 1 mm² groß wäre – zehn bis dreißigmal höherer Takt wäre möglich. Man macht es aus einigen einfachen Gründen nicht: Da man um jedes Die einen Abstand halten muss beim Zersägen des Wafers steigen die Verluste deutlich an wenn die Chips kleiner werden und vor allem kann man die Anschlüsse (Pins) nicht beliebig verkleinern. Bei 1000 Prozessoren müsste man viel mehr Pins unterbringen und das wird schwierig.

Wir brauchen also eine neue Erfindung. Vielleicht eine deren Bedeutung ich auch sofort erkenne.

12 thoughts on “Eine Erfindung die ich nicht erkannt habe

  1. Rein von der Chipgröße her ist noch eine weitere Steigerung möglich. Übertakter haben schon mehr als 7 GHz erreicht. Das Problem dabei ist wie schon bei den Cray-Rechnern die Wärmeentwicklung. Für solche Rekordversuche mußte mit flüssigem Stickstoff gekühlt werden. Gut um mal die Grenzen auszutesten, aber für den Dauerbetrieb eher unbrauchbar.
    Die Laufzeiten sollten eigentlich nur innerhalb eines Prozessorkerns eine Rolle spielen, die anderen Kerne sind ja davon unabhängig. Und ein Kern belegt nur einen Bruchteil der Chipfläche, der größte Teil wird für den Cache gebraucht. Solche relativ großflächigen Strukturen sind aber nur möglich, weil L2- und L3-Cache mit deutlich geringeren Taktfrequenzen laufen.

  2. Als ich studierte da wurden GALS untersucht (Globally Asynchron, Locally Synchron). Man wollte das Problem der lange Wegen umgehen, in dem man die Chip in mehrere Clock bereich unterteilt, und die daten dann asynchron zwischen den einzelnen Bereiche geschoben wurden.

    Habe aber seit dieser Zeit nichts mehr davon gehört.

  3. Natürlich kann man das auhc mit Pipelines lösen, aber die Idee (wenn ich mich richtig erinnere) war, auf die Clockverteilung im ganze Chip zu verzichten.
    Man muss sich das als ein Verteilbaum anschauen, und der Clock geht an alle Register im Chip. Bei jedem Takt, muss dieses Ding aufgeladen werden. Es wirkt ja wie ein grosser Kondesator.

  4. Meine Idee war das die verschiedenen Pipelinestufen eben jeweils einen eigenen Zeitgeber haben. Dann muss eben die Kommunikation zwischen diesen Stufen entsprechend gestaltet werden (asynchron).

  5. Ich meinte jetzt auch nicht die 20-30 Pipelinestufen eines Pentium 4 sondern eher die 5 oder 6 eines aktuellen Modells. Ich denke das bekommt man hin.

  6. „Ich meinte jetzt auch nicht die 20-30 Pipelinestufen eines Pentium 4 sondern eher die 5 oder 6 eines aktuellen Modells.“

    . wenn man mit dem Pentium 4 vergleicht sollte man auch bei der Familie bleiben, ein Haswell hat 14-19 Pipelinestufen (siehe: http://www.bernd-leitenberger.de/haswell.shtml)

    Welcher aktuelle Prozessor hat nur 5-6 Pipleinestufen? Das liegt ja noch unterhalb des theoretisch ermittelten Optimums von 6-8 bei RISC.

  7. Hallo Bernd,

    Du schreibst über Transistoren: „Da kein Hochspannungsfeld aufgebaut wurde schalteten sie auch schneller.“ (als Röhren).

    Das ist mit Bezug auf die Zeit der Einführung von Transistoren in der Rechnertechnik mit Verlaub gesagt schlicht Unsinn. Die ersten in der Rechnertechnik eingesetzten Transistoren wiesen Schaltzeiten auf, die um ganze Größenordnungen (mehrere Zehnerpotenzen) unterhalb der Schaltzeit von Röhren lagen. Jahrzehnte vor der Erfindung des Transistors waren Betriebsfrequenzen (gerne auch Schaltfrequenzen) im Gigahertzbereich in der Röhrentechnik beherrscht. Die Transistoren brauchten nach ihrer Erfindung wiederum selbst viele Jahre, um auch nur in den UKW-Bereich (also bis etwa 100 MHz) vorzudringen und dort massentauglich und bezahlbar zu werden.

    Gerade das von Dir angeführte „Hochspannungsfeld“ in der Röhre war und ist eine Garantie für die Geschwindigkeit des Elektronen- und damit auch des Signalflusses. Für nicht-relativistische Geschwindigkeiten gilt im Vakuum:

    Elektronengeschwindigkeit = Wurzel (2V * (e/me)); mit e/me = 1,7588 * 10^11 C/kg

    Bei eher gemütlichen 200 Volt Spannungsdifferenz zwischen Anode und Kathode ergibt sich somit eine Elektronenendgeschwindigkeit von 2 * 6 * 10^6 m/s durch dieses „Hochspannungsfeld“. Kathode und Anode liegen wenige Millimeter auseinander; die Laufzeit kannst du Dir gerne selbst ausrechnen. Das Steuergitter einer Röhre, wie sie in Rechnern verwendet wurde, ist sogar nur wenige Zehntel Millimeter von der Kathode entfernt; die Steuerung des Elektronenflusses selbst erfolgt dabeit elektrostatisch und die Ausbreitungsgeschwindigkeit eines elektrostatischen Feldes kennst Du.

    Die Schaltgeschwindigkeit von Röhren wird in der Praxis durch ganz andere Faktoren als das angeführte „Hochspannungsfeld“ limitiert, zum Beispiel durch Systemkapazitäten, die umgeladen werden müssen, was mit zunehmender Frequenz zunehmende Leistung erfordert.

    Kurz gesagt, bitte streiche „Da kein Hochspannungsfeld aufgebaut wurde schalteten sie auch schneller.“

    Mit freundlichen Grüßen, Tom

  8. In den extrem dünnen Leitungen auf Mikrochips werden m.W. deutlich niedrigere Signalgeschwindigkeiten erreicht als in „normalen“ Kupferkabeln. In letzteren ist es i.W. die Dieletrizitätskonstante des Isolationsmaterials, die die Ausbreitung eines Spannungspulses (letztendlich ist der eine „Welle“) maßgeblich beeinflusst, während in Mikrochips noch das Problem hinzu kommt, dass dünne Leitungen einen hohen Widerstand haben, über den die Gate-Kapazität am Ende der Leitung nur langsam umgeladen werden kann. Entsprechend sinken die Geschwindigkeiten weiter. Das ist aber in Prozessoren mit mehreren Pipeline-Stufen kein so großes Problem – innerhalb eines Taktes muss ein Signal ja nur von einem Ende einer Pipeline-Stufe zu deren anderen Ende gelangen. Wir reden also über deutlich unter 1 mm, die das Signal pro Takt zurücklegt.

    Aber nicht nur die Signalgeschwindigkeit wird mit zunehmender Verkleinerung immer niedriger. Auch die Betriebsspannung muss immer weiter sinken, da auch die Isolatorschichten (z.B. am Gate der Transistoren) immer dünner werden, und folglich bei gleicher Betriebsspannung die Leckströme immer weiter steigen würden. Niedrigere Gate-Spannungen bewirken aber nunmal niedrigere Ladungsträger-Mobilität und damit wird der Vorteil der Strukturverkleinerung – nämlich die höhere Feldstärke am Gate – wieder aufgezehrt. Entsprechend steigen seit etlichen Chip-Prozess-Generationen die möglichen Taktfrequenzen so gut wie nicht mehr an.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.