In Memoriam: der erste Supercomputer

Es gab mal eine Zeit, da konnten „Computer Experten“ mehr als nur Windows neu installieren, Hacker den ganzen Tag programmierten, anstatt zu surfen und Informatikunterreicht nicht darin bestand Studenten Excel beizubringen. In diesen „good old days“, als man sich noch in die Benutzung eines Computers einarbeiten musste, las der Autor zum ersten Mal von einem „Supercomputer“. ein Supercomputer, das war damals eine Cray 1.

Mich fasziniere diese Maschine von Anfang an. Das fing schon mit dem Aussehen an. Er sah nicht wie ein Computer aus. Ein größerer Computer, so ab den Superiminis war damals ein Rechner eine große Kiste von Schrankform, eventuell vorne noch mit einigen Lichtern. Dazu kamen dann noch einige kleinere Schränke mit den so eindrucksvoll rotierenden Magnetbändern und einige Kommoden mit Wechselplatten.

Die Cray 1 sah aus wie eine angeschnittene Sitzgarnitur um eine Säule, wie sie sicher auf einem Flughafen stehen könnte. Sie sah schön aus. Eigentlich war die Cray 1 kein kompletter Rechner. Auf heute übertragen, war er nur das Motherboard. Man brauchte einen Minicomputer um ihn überhaupt zu starten und dann doch Wechselplatten für die Datenspeicherungen. Die meisten Institutionen, die ihn einsetzen nutzen einen Großrechner nur als Ein/Ausgabesystem.

Die Cray war der erste speziell auf Geschwindigkeit gezüchtete Rechner der allgemein bekannt wurde. Es gab vorher schon Rechner bei denen die Geschwindigkeit Priorität hatte, doch die Cray 1 wurde erfolgreicher als alle vorhergehenden Versuche. Erst vor einem Jahr habe ich mich genauer mit der Architektur des Rechners beschäftigt. Die Cray selbst bestand nur aus drei Chips: Einem NAND Gatter für die Logik, einem schnell 64 Bit Speicher für die Register und einem „langsamen“ 1024 Bit Baustein für den Speicher. Der „langsame“ Speicher ist in etwa so schnell wie heutiger Speicher.

Die hohe Geschwindigkeit wurde erreicht durch mehrere Faktoren. Zum einen die Halbleitertechnologie. Die Cray 1 setzte auf ECL, in der alle Bausteine gefertigt wurde. ECL (Emitter Coupled Logik). Bei dieser geht ein Transistor nie in den Sättigungszustand. Dadurch schaltet er viel schneller, verbraucht aber wenn nicht geschaltet wird ebenfalls Strom, während andere Transistoren dann nur eine geringe Verlustleistung aufwiesen. Der Preis war. dass die Cray 1 aktiv gekühlt wurde. Ein Geflecht von Leitungen mit einen Fluorkohlenasserstoff durchzog den Rechner. In der „Sitzkruppe“ saß der Tank und der Kompressor zur Verflüssigung des Gases. Die Cray hatte eine Verlustleistung von 115 kW. Diese wurde auf einer Fläche von rund 12 m² abgegeben, was eine leistungsfähige Klimaanlage erforderte. Zudem wurde durch das Freon der Rechner schwer. Die größte Version wog 5,5 t. In Garching wurde unter der Decke ein Stützträger eingezogen um das Gewicht abzufangen.

Die Form wurde durch den Taktzyklus von 12,5 ns bestimmt. Da alle Teile des Rechners im Takt sein mussten, dürfte keine Verbindung länger als 1,82 m sein. Daraus war der Rechner ein Kreissegment (kein geschlossener Kreis, sonst kam man nicht an die Module im Tower ran).

Das zweite war die Architektur. Neben den skalaren Operationen konnte man auch viele Operanden im Reisverschlussverfahren einer Operation unterziehen. Dann führte der Rechner pro Takt eine Operation aus. Dieses Vektorprinzip war nicht neu, doch die Cray 1 setzte es am besten um indem man sich den Luxus leistete acht Vektorregister für je 64 Werte mit je 64 Bit anzulegen. (Das waren bei 64 Bit pro Chip für die Register alleine 512 Chips). Vorherige Implementationen machten es im Speicher, der jedoch selbst bei der ECL Technologie achtmal langsamer als die Register war. Mit diesem Vektorprinzip erreichte die Cray 1 typisch 80 MFlops Peak. Unter geschickter Nutzung der Architektur (bei den Vektorregistern konnte ein Register gleichzeitig Quelle und Ziel sein und man konnte die Skalareinheiten parallel betreiben erreichte sie eine Maximalgeschwindigkeit von 160 MFlops.

Seymour Cray ging nach der Cray 1 an eine neue Architektur, die Cray 2. Sie sollte noch kompakter werden. Der ganze Computer passte nun in einen Kreisringsegment von 115 cm Höhe und 135 cm Durchmesser. Das war nur möglich indem nun die Platinen in Kühlmittel schwammen. Erstmals setzte Cray normalen CMOS Speicher ein, wenn auch die Logik weiterhin in ECL war. Damit die langsamen Speicherbausteine die Cray 2 nicht ausbremsten, führte Seymour Cray Caches ein und sprach den Speicher in Banks an, damit jeder Zugriff auf eine andere Bank ging. Sehr viel anders funktioniert DDR-Ram heute auch nicht.

Erfolgreicher waren aber Weiterentwicklungen der Cray 1, die man in der Firma entwickelte, weil sich die Einführung der Cray 2 verzögerte. Man verdoppelte zuerst nur die Zahl der Vektorprozessoren (Cray X-MP, später vervierfachte und verachtfachte man sie (Cray Y-MP) und stellte auf CMOS Speicher um, denn man schon bei der Cray 1S eingeführt hatte. Sie näherten sich schnell der Performance der Cray 2, waren aber preiswerter und softwarekompatibel. Seymour Cray verlies dann Cray Research. Bei der Entwicklung der Cray 3 setzte er auf eine falsche Karte. Er meinte Galliumarsenid als Halbeliter wäre nun reif Silizium abzulösen. Auf dem Papier war es in allen Belangen überlegen, aber es war noch nicht so weit (bis heute hat es nur Nischengebiete erobert). Dazu kam, dass nun Anfang der Neunziger Jahre abgerüstet wurde. Größter Kunde war bisher das US-Militär gewesen, das mit Supercomputern Atombomben simulierte und Flugzeuge konstruierte. Das fiel nun weg. Es wurde nur eine Cray 3 teilweise fertiggestellt und diese wurde nicht bezahlt, was zum Bankrott führte. Cray Research baute noch lange Rechner auf Basis der Cray 1.

Leibnitz RechenzentrumDann wechselte die Firma auf das was heute in jedem Supercomputer ist: normale PC-Prozessoren, davon aber tausende. Davon hielt Cray niemals etwas „Wenn sie einen Acker umpflügen wollen – was nehmen sie: zwei starke Ochsen oder hundert Hühner“. aber es war technisch anders nicht möglich. Die Schaltzeiten der Gatter erhöhten sich in den 15 Jahren zwischen der ersten und letzten Version der Cray kaum, dazu kam der über Module verteilte Rechner, wo die Signalleitungen weitere Verzögerungen addierten. Man kam an einen Punkt den auch PC-Prozessoren 12 Jahre später erreichten – man konnte die Taktfrequenzen nicht mehr steigen und mehr Geschwindigkeit gab es nur doch mehr Recheneinheiten und dann ging man eben gleich von einigen Vektorprozessoren in proprietärer teurer Technologie auf viele Prozessoren über.

Heute sind Supercomputer nicht mehr Sexy. Wenn sich der Rechner von meinem PC nur noch dadurch unterscheidet dass man tausende oder hunderttausend Prozessoren hat, dann ist das nichts mehr als ein Cluster und sie brauchen immer mehr Platz, eine Cray 2 belegte 1,5 m² Fläche, der neueste Rechner im Leibnitz Rechenzentrum von IBM dagegen eine ganze Halle. (Bild links)

Rein Rechnerisch hängt heute jeder PC die schnellsten Rechner ab die Cray jemals produzierte. Mein Rechner hat einen Athlon 5050e (2 x 2,6 GHz), der war schon nicht taufrisch als ich ich 2009 kaufte. Nach Linpack hat er rund 823 GFlops pro Kern. Dank verlangsamter Software reicht er heute gerade noch für Surfen im Internet 🙂

8 thoughts on “In Memoriam: der erste Supercomputer

  1. Moin,

    > Heute sind Supercomputer nicht mehr Sexy.

    aber auch nicht mehr so teuer, z.b:

    1U Gehäuse, 2 Netzteile, MBD-H8QGI+-F, 4*Opteron 6308, 512GB RAM, 1*LSI Warp Drive ~ Euro 7000+MwSt. Für wenige Euro mehr gibts das auch leise für untern Schreibtisch.

    Bester Hersteller für Supercomputer in Deutschland ist übrigens Sysgen aus Bremen. Viele Unis und Forschungseinrichtungen kaufen dort.

    Wer aber umbedingt ne Cray 1 haben will kann die auch selber bauen: http://www.chrisfenton.com/homebrew-cray-1a/

    Leider gibts für die Teile weder Betriebssystem noch Software.

    > Dank verlangsamter Software reicht er heute gerade noch für Surfen im Internet

    Tja, Windoof, Firefox, Flash ;-( Aber das sind alles Sachen die auf nem Supercomputer nichts zu suchen haben 😉

    ciao,Michael

  2. Na ja der Supercomputer fängt bei mir dann an wenn man es in die Top500 Liste schafft. Dazu braucht man in der Regel siebensellige Summen. Vor einigen Jahren hat eine Uni mal PSP zusammengekoppelt und kam als Experiment tatsächlich in die top500, es fehlte für den praktischen Einstz aber Speicher und Massenspeicher.

    Zum Cray Nachbau. Wenn man den Artikel liest ist er nicht so weit gekommen. Features fehlen und mit 4 Kworten RAM kann man wohl keine Software laufen lassen. Ob er überhaupt funktioniert ist auch offen, denn er konnte keine Software auftreiben. Ich denke den unten angesprochenen Cray Emulator zu scheiben ist viel einfacher, weil der Befehlssatz dorch recht geradlinig ist.

  3. Ich bin da kein Experte, aber ich denke auch eine rolle spielt, dass man in die derzeitige Fertigung zig Milliarden investiert hat – nicht nur für Produktionsanlagen sondern auch Forschung.

    Die Halbleiterindustrie ist da recht konservativ. So wird seit Jahen EUV angepriesen für niedrigere strukturbreiten, man benötigt aber komplett neue anlagen dafür, so kitzelt man aus dem was mit normalen UV ist noch das letzte raus.

    GaAS Schaltkreise kenne ich heute nur von optoelektronischen Wandlern (Kupfer-Glasfaserkabel) und im Verbund mit analogen Bauelementen. Bei der Cray 3, die als einzige jemals mit den Chips gebaut wurde erreichte man auch nur 500 Gatter pro 3,8 x 3,8 mm Die, das war schon 1993 wenig (ein 486 er Prozessor aus demselben Jahr hatte 1,3 Millionen Transistoren und ein Gatter kann man aus wenigen Transistoren konstruieren

  4. Also, wir haben uns Cray im Studium auseinander gesetzt. Der Professor baute nebenbei Supercomputer. Also der Spruch mit Galium Arsenid wurde mehrfach wiederholt.
    Der Gründe, dass Galiumarsenid nicht kam, waren glaub folgende, wenn ich mich recht erinnere:
    -Es gab nur ECL Schaltung, und kein CMOS, so dass man mehr Transistoren brauchte, und es mehr Strom brauchte. Und auch sind weder PMOS noch NMOS möglich. Das kommt daher, dass man nicht leicht Isolationsmaterial machen kann, wie Siliziumdioxid.
    – Die geringe Integrations dichte war schlecht, vielleicht mit Forschung steiger bar
    – Das Material ist schlicht teuer, und man findet es nicht wie Sand am Meer.
    -Das Zeug ist giftig.

  5. @EUV:

    Da gab letztens diese interessanten Golem Berichte.

    http://www.golem.de/news/intels-cto-100-gbit-s-fuer-netzwerke-und-probleme-nach-10-nanometer-cpus-1307-100356.html
    http://www.golem.de/news/prozessoren-bei-5-nanometern-ist-moore-s-law-am-ende-1309-101320.html

    EUV ist scheinbar eine Sackgasse geworden, weil die Hersteller es seit Jahren nicht schaffen die Technik bezahlbar zu machen.

    Ein ähnliches Thema ist die die sogenannte Wavelet Transformation bei der Bild und Videobearbeitung. War Anfang des Jahrtausends ebenfalls der neue Hoffnungsträger, entwickelte sich aber ebenfalls zu einem Reinfall, wie man hier nachlesen kann.

    http://x264dev.multimedia.cx/archives/317

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.