Home Computer Hardware Site Map counter

Neubeginn bei 64 Bit?

Einleitung

Mit dem im Juni 2001 erschienenen Itanium Prozessor von Intel, ist wieder Bewegung in den Massenmarkt gekommen. Nicht, weil Intel ein Vorreiter bei 64 Bit Prozessoren ist - Systeme mit dieser Breite für Server und Workstations gibt es seit Anfang der neunziger Jahre. Supercomputer mit einer 64 Bit Architektur sogar seit 1976. Intel selbst hat 1989 den 64 Bit Prozessor i860 vorgestellt, ein Jahr später kam der MIPS R4000 und 1992 der noch heute erfolgreiche Alpha Prozessor. Doch die breite Öffentlichkeit interpretiert den Itanium als die zukünftige Ablösung der 32 Bit Architektur. Nun stellt sich die Frage was 64 Bit bedeuten, und was sie dem Anwender bringen.

Was bedeuten 64 Bit?

Pentium 4 - der höchstgetaktete 32 Bit Prozessor Es ist eine nicht ganz einfache Frage. Ein × Bit Prozessor wird allgemein als ein Prozessor verstanden der × Bit gleichzeitig bearbeiten kann. Leider gibt es drei Kriterien an denen man das festmachen kann, und da dies auch für die Performance wichtig ist sollen sie erklärt werden:

Die Breite der internen Register

Um Daten zu verarbeiten zu können und Zwischenergebnisse zu speichern, hat jeder Prozessor eine Anzahl an internen Speicherzellen, die sogenannten Register. Jedes Register hat eine feste Breite die angibt wie groß die Daten sein können die mit einem Befehl verarbeitet werden können. Ein 32 Bit Prozessor kann z.B. Zahlen von 0 bis über 4 Milliarden in einem Rutsch addieren, während ein 16 Bit Prozessor dies nur bis 65535 kann, d.h. größere Zahlen in zwei Schritten bearbeiten muss. Dies ist das zuverlässigste Kriterium mit den wenigsten Ausnahmen. Leider gibt es aber schon hier Ausnahmen, so verfügen 16 und 8 Bit Prozessoren über die Fähigkeit manche Register zusammenzuschalten und einige Befehle mit größeren Daten durchzuführen. Der Zilog Z8000 Prozessor war z.B. nominell ein 16 Bit Prozessor, konnte aber seine Register auch in 8 Bit teilen oder jeweils zwei oder vier zu 32 und 64 Bit zusammen fassen. Man hat in jedem Falle aber eine höhere Geschwindigkeit wenn die internen Register breiter sind, als wenn man kleinere Register kombiniert.

Der Datenbus

Jeder Prozessor muss die Daten in den Registern auch in den Speicher schreiben. Am besten ist es wenn der Datenbus daher die Breite der Register hat. Vor allem bei Intel Prozessoren findet man hier jedoch Ausnahmen. Entweder der Datenbus ist kleiner, weil Zusatzbausteine, die weniger breiten Datenpfade verarbeiten preiswerter sind. Dies geschah so beim 8088 (16 Bit Prozessor mit 8 Bit Datenbus) und 80386 SX (32 Bit Prozessor mit 16 Bit Datenbus), oder er ist breiter, so bei allen x86 Prozessoren ab dem Pentium. Diese haben einen 64 Bit Datenbus, damit man mehr Daten auf einmal vom Speicher abrufen kann.

Der Adressbus

Außer Daten muss auch dem Speicher gesagt werden, von wo man Daten haben will. Dazu wird eine Adresse angelegt, die von 0 hoch gezählt wird. Da 8 Bitter normalerweise nur 256 Bytes über ein Register adressieren könnten hatten diese einen 16 Bit Adressbus. Der Adressbus war also doppelt so breit wie der Datenbus. Bei 16 Bittern gab es 20 oder 24 Bit Adressen und nur 32 Bitter haben in der Regel 32 Bit Adressen. Allerdings verfügen nur wenige 64 Bitter über 64 Bit Adressen, der Itanium z.B. nur über 44 Bit für den Adressraum. Der größere Adressraum ist für viele Anwendungen das entscheidende, denn vor allem Server mit Datenbankanwendungen können nie genug Speicher haben. 4 GByte wie sie mit 32 Bit möglich sind reichen da oft nicht aus.

Mehr Geschwindigkeit durch 64 Bit?

In der Vergangenheit war es immer so, das 16 Bitter schneller als 8 Bit waren oder 32 schneller als 16. Sind nun 64 schneller als 32? So einfach ist das nicht. Zum einen resultieren die höheren Geschwindigkeiten dadurch das die Prozessorhersteller ihre alten Prozessoren mit weniger Bits nicht weiterentwickelten. Natürlich waren dadurch die neuen Prozessoren schneller. Das ist bei der derzeitigen Architektur nicht so: Intel wird die x86 Linie noch mindestens 5 Jahre weiter entwickeln und diese 32 Bit Prozessoren haben ähnliche Leistungsbereiche wie 64 Bit Prozessoren. Zum anderen kommt es darauf an welche Daten verarbeitet wird. Es gibt folgende Arten von Daten:

Nun klar ist das zuerst einmal 64 Bit nicht viel mehr bringt als 32 Bit wenn die meisten Daten nicht 64 bittig vorliegen. Allenfalls die SIMD Operationen profitieren von einer größeren Verarbeitungsbreite.

Ein anderes Kapitel ist das der Fließkommaberechnung. Standardisiert sind hier 32 und 64 Bit, ein weiteres Format sind 80 Bit. Für 32 Bit Prozessoren bedeuten 64 und 80 Bit, dass der Prozessor die Daten in zwei oder drei Zyklen einholen muss. Ein 64 Bit Prozessor kann das wichtige 64 Bit Format (15 Stellen Genauigkeit) nativ berechnen und ist so schneller - Ein Grund warum bei entsprechenden Benchmarks 64 Bit Prozessoren führend sind. Dies ist wichtig für Simulationen, Computergrafik oder wissenschaftliche Anwendungen - weniger für den normalen Desktop Benutzer. Aus diesem Grund waren Supercomputer von Cray schon immer 64 Bit Maschinen, und aus dem gleichen Grund gibt es heute keine 128 Bit Rechner.

Für Finanzmathematische Dinge - die heute allerdings nicht mehr die Rolle spielen wie vor 20 Jahren - wäre noch interessant, das man in 64 Bit Zahlen alle Währungen der Welt verlustfrei umrechnen kann. Das Problem bei Finanziellen Programmen ist dass sie gar keine Rundungsfehler haben dürfen. Dazu eignen sich Fliesskommazahlen nicht und 32 Bit Integer auf der Basis von 1 Cent machen bei zirka 21 Millionen schlapp wegen des Überlaufes. Daher verwenden ältere Programmiersprachen wie COBOL BCD Zahlen, dabei werden die Zahlen wie im Dezimalsystem stellenweise gespeichert und jeweils nach Rechnungen konvertiert. Das dauert und mit 64 Bit Zahlen kann man einen Zahlenbereich von 19 Stellen ausschöpfen - genug um die Verschuldung der USA in Yen auszudrücken und noch ein paar Potenzen Sicherheit zu haben.

Mehr Speicher!

Die meisten 32 Bit Prozessoren können 4 Gigabyte direkt adressieren. Das ist nicht mehr arg weit von dem entfernt was heute ein normaler Desktop PC an Speicher hat. (Unter Windows sind übrigens nur max. 2 GB für Anwendungen verfügbar. Der Rest wird von Windows belegt). Für Server die Daten von Datenbanken puffern müssen, und mehrere Clients bedienen müssen, ist es aber nicht so viel. Daher ist auch heute schon die Domäne von 64 Bit Systemen der Betrieb als Server. Dies ist der eigentliche Vorteil von 64 Bit Systemen. Der Adressbereich von 64 Bit reicht bei einer Verdopplung alle 18 Monate für mindestens 48 Jahre aus. Ein Sun 15K Rechner z.B. wird standardmäßig mit 288 GByte Speicher ausgeliefert.

Die Chance einer neuen Architektur

Es gibt zwei Möglichkeiten auf 64 Bit zu kommen: Zuerst kann man einfach die alte 32 Bit Architektur auf 64 erweitern - So machte es Intel beim 386 (von 16 auf 32) und so wird es AMD beim Sledgehammer (32 auf 64 Bit) machen. Der Vorteil ist eine volle Softwarekompatibilität und eine gute Performance mit "alter" Software. Doch man versäumt die Chance vieles zu verbessern und Ungereimtheiten zu beseitigen.

Ein kleiner Blick auf den Itanium

Architektur des Itanium Der Itanium ist Intels jüngster 64 Bit Spross. Er beherrscht eine Emulation der x86 Software, doch er ist kein Nachfolger der x86 Linie. Daher konnte man vieles verbessern. Um die Lösungen zu verstehen sollte man sich vergegenwärtigen, welche "hausgemachten" Probleme die x86 Architektur hat:

Intel hat bei diesem Prozessor daher eine neue Architektur gewählt. Es gibt einen Kompabilitätsmodus in dem er sehr langsam einen Pentium III emuliert (etwa so schnell wie ein Pentium II-300), aber dieser dürfte nur zur Überbrückung wichtig sein. Was nun zeichnet den 64 Bit Modus aus?

Sehr viele Register

Anders als die Pentium Riege verfügt der Itanium über sehr viele Register. Es sind 128 Integer und 128 Fliesskommaregister. Dazu kommen 64 Register um spekulative Sprünge abzuspeichern. Neben dem schnelleren Registerzugriff, kann wie bei der SPARC Architektur, schnell zwischen den Registern umgeschaltet werden, die Register werden "umgemappt". Der Hintergrund: Hochsprachen müssen an Unterprogramme Werte übergeben und dies geht sehr einfach wenn man jeder Prozedur einen eigenen Registersatz hat. Bei der alten Pentium Architektur geht dies über den Stack, also den Speicher.

Zusätzlich unterstützt der Itanium wie z.B. schon der Power PC Prozessor Drei Operanden Befehle. Im normalen Leben schreibt man a=b+c. Bei den Intel Prozessoren war es aber bisher so, dass das Ergebnis der Addition von a und b entweder a oder b überschrieben hat, je nachdem wie herum sie erfolgte. Brauchte man also beide Operanden nach der Rechenoperation so musste man einen vorher kopieren.

Effektiver Code für die Funktionseinheiten

Itanium I ProzessorDer Itanium besitzt von allen Mikroprozessoren am meisten Funktionseinheiten: 4 Integer, 2 FPU, 2 SIMD, 4 Multimedia 3 Sprung und 2 Ladeeinheiten. 6 Befehle können von diesen parallel bearbeitet werden. Damit dies effektiv möglich ist hat man die Wege des Pentium pro verlassen. Das grundlegende Problem ist, das für den Maschinencode die einzelnen Einheiten nicht ansprechbar sind, für ihn sieht es also so aus als hätte der Prozessor nur eine Integer Einheit anstatt deren vier. Beim Pentium stellt eine Logik die Befehle trickreich um so die Performance zu erhöhen. Beim Itanium hat man diese Aufgabe auf die Codeerzeugung delegierst.

Der Code besteht aus 128 Bit Befehlsbündeln. Jedes Bündel besteht aus bis zu 3 Befehlen von 41 Bit Breite und einem 5 Bit "Template", dass angibt ob, und wenn ja wie, die Befehle parallel ausgeführt werden können und ob es Abhängigkeiten zu anderen Befehlen gibt. Sollte keine parallele Ausführung möglich sein so müssen die Bündel mit NOP (Leerbefehlen) gefüllt werden, da Abhängigkeiten den Prozessor sehr stark ausbremsen.

Jeder Befehl hat anders als bei der Pentium Architektur ein festes Format von 14 Bit für den Opcode (also max. 4096 Befehle - üblicherweise kommen Prozessoren mit zirka 100 aus) sowie je 7 Bits für die drei Operanden. 6 Bits sind für die spekulative Ausführung vorgesehen. Der Code ist dadurch dreimal größer als bei Pentium Systemen. Wo aber die Einheiten gut bedient werden können ist der Prozessor auch sehr schnell.

Das wesentliche an der dieser Idee ist es das es die Verantwortung auf den Compiler auslagert. Das ist sinnvoll, denn dieser hat die Quellen des Codes und kann bei der Erzeugung schon wissen wie die Befehle effektiv zu gruppieren sind. Zudem wird ein Programm einmal compiliert, aber tausende Male ausgeführt - Eine Optimierung bei der Übersetzung ist daher immer insgesamt zeitsparender.

Ein neues Multimedia und FPU Konzept

Bei der Pentium Architektur war die FPU (Floating Point Unit: numerischer Coprozessor) bis zum 486 ein eigener Prozessor, der über spezielle Befehle angesprochen wurde. Das damals gewählte Konzept von nur 8 FPU Registern die über einen Stack angesprochen werden, ist langsam. Dazu kommt, das die FPU in 80 Bit rechnet, der Prozessor aber 32 Bit Wortbreite hat. Die Verzögerung beim Laden und Speichern langer Befehle ist so groß, das die FPU schneller bei 32 oder 64 Bit Breite ist, obgleich sie jeweils intern vom 80 Bit Format nach unten runden muss.

Für einen 64 Bit Prozessor wäre das 64 Bit Format nahe liegend gewesen, viele andere 64 Bit Prozessoren kennen keine 80 Bit Gleitkommazahlen. Intel hat ein 128 Bit Format definiert, das jedoch noch nicht benutzt wird. Stattdessen wird mit 64 Bit gerechnet. Durch die 128 Register aber erheblich schneller als beim Pentium. Hier schlägt auch die höhere Wortbreite zu, denn es ist möglich in einem Takt bis zu 2 Fließkommawert zu laden, während der Pentium für einen Wert bis zu 4 Takte benötigt.

Entlastet wird die FPU durch 4 SIMD Einheiten mit 64 Bit und zwei mit 32 Bit Breite. Diese teilen die 64 Bit Register in kleinere Hälften bei denen jeweils mehrere kleinere Werte simultan bearbeitet werden. Diese gleichartige Bearbeitung von werten findet man in Spielen, vor allem aber in der Komprimierung und Dekomprimierung von Video- und Audio Daten. Für wissenschaftliche Anwendungen wird dies interessant wenn dies auch mit 64 Bit Werten möglich ist.

Mängel im Design

Intels Itanium ist der erste seiner Art, zirka 2 Jahre zu spät erschienen und er wird bald von einem verbesserten Nachfolger (Kinley) abgelöst werden. Das Konzept hat zwei Schwächen: Zum einen sind die Caches sehr klein: 16 K L1 und 96 K L2. Vor allem wenn man bedenkt das der Itanium Code dreimal größer als Pentium Code ist. Die Werte sind etwa um den Faktor 4-8 zu klein. Das bremst den Prozessor aus. Er punktet bei typischen SIMD Aufgaben und auch noch bei FPU Berechnungen, doch bei den schnelleren Integerrechnungen die einen großen Durchsatz haben, ist er langsamer als vergleichbare Prozessoren.

Das Zweite ist, das Intel alle Register und Befehle mit einem "Vorhersage" Flag ausgeführt hat. Das heißt der Code wird erst mal ausgeführt und danach geguckt ob das Ergebnis brauchbar ist oder nicht (z.B. weil es einen Sprung im Programm gab). Dadurch sind alle 17 Funktionseinheiten voll am laufen und der Prozessor braucht viel Strom: 130 Watt - doppelt so viel wie ein Pentium 4. Trotzdem macht es den Prozessor nicht schneller, den es werden eben nur die Befehle ausgeführt deren Vorhersage erfolgreich war. Würde man die Funktionseinheiten besser ausnutzen so könnte man die Performance weiter steigern.

Die Alternative: Opteron (Hammer)

AMD ist sehr erfolgreich mit dem Athlon und will natürlich Intel nicht den 64 Bit Markt überlassen. Es geht AMD jedoch nicht so sehr wie Intel daran den Workstation und Server Markt zu erobern sondern sie sehen die Gefahr, dass wenn der Itanium eingeführt ist und es ein Windows 64 gibt, Intel versuchen wird dem PC Kunden einen Itanium zu verkaufen frei nach dem schon zweimal bewährten Motto "64 ist mehr als 32".

Doch will der PC Benutzer einen neuen Prozessor? Nein, eigentlich will er nur einen auf dem seine bisherige Software schneller läuft und wenn der noch dazu 64 Bittig ist, um so besser. Und ist der unter dem Codenamen "Hammer" entworfene Chip ein ganz anderer Prozessor sein. Für 32 Bit Software ändert sich nichts - sie läuft eben schneller. Im 64 Bit Modus verwendet der Hammer dieselben Register. Er erweitert den Satz um je 8 Integer und 8 MMX Register - in 128 Bit Breite nicht nur 64 wie beim Itanium. Die FPU Register bleiben allerdings auf 8 beschränkt.

Der Vorteil des Hammers ist: Im 32 Bit Modus ist er ein schneller Prozessor, bei 1.8 GHz etwa so schnell wie ein Pentium 4 3.2 GHz. Dieser Zugewinn liegt vor allem einem größeren Cache von 1 MByte und einer effizienten Speicheranbindung. Darüber hinaus gibt es noch einen 64 Bit Modus, für den es Linux und Windows geben wird. Er bringt bei Linux, in einigen Benchmarks nochmals einen weiteren Leistungsschub. Vor allem aber gibt es in diesem auch einen Kompabilitätsmodus für 32 Bit Software - Genauso wie heute Windows XP noch DOS oder Windows 3.1 Programme ausführen kann, die nur 16 bittig sind.

Vorerst gibt es den Hammer unter der Bezeichnung Opteron als Server Prozessor, doch bald wird diesem eine Desktop Variante folgen.

Itanium oder Hammer?

Es gibt schon jetzt Diskussionen welches wohl die bessere Lösung ist. Klar ist das Itanium 1 (Intel Codename Merced) als Erstling zwar teilweise beeindruckende Werte bei Benchmarks liefert. In der Summe aber eher enttäuschend ist. Intel soll nicht mehr als 10.000 Systeme im ersten Jahr verkauft haben. Der Nachfolger Itanium 2 wurde schneller, doch auch von ihm wurden im zweiten Jahr nicht viele Systeme verkauft. Grund waren die extrem hohen Chippreise der Prozessoren mit bis zu 225 Millionen Transistoren (zum Vergleich ein Athlon hat 37.5 und ein Pentium 4 42 Millionen). Dazu kam der Umstand dass er inkompatibel zur x86 Serie ist und man neue Software brauchte, und die fehlt auch nach 2 Jahren noch.

Doch was ist nun das bessere System? Wir stehen hier vor derselben Fragestellung wie 1978/79 bei Vorstellung des Intel 8086 und des Motorola 68000. Erster war leidlich kompatibel zum 8080, so das man bestehende Software leicht anpassen konnte, aber er war ein von 8 auf 16 Bit aufgebohrtes Design. Dessen Mängel heute noch überall im PC zu spüren sind. Der MC 68000 war dagegen neu, aufwendiger und teurer, aber mit einem zukunftsorientierten Design, Angesichts der Tatsache das man heute in Anwendungsprogrammen kaum MMX, 3D-NOW oder SSE findet dürfte der Hammer die besseren Chancen haben, denn er ist kompatibler. Intel hat als Konsequenz angekündigt die x86 Emulation im Itanium schneller zumachen, doch ob dies reicht?

Technisch ist der Itanium erheblich fortschrittlicher und zukunftssicherer. Aber er ist ein Bruch mit einem seit 22 Jahren eingeführten Standard. Wäre der Itanium billig wie ein typischer RISC Prozessor, so wäre sicher ein spannendes Rennen zu erwarten, doch derzeit ist er ein teures Transistorgrab. So könnte AMD Intel abhängen: Ihr Markt dürfte nicht der von Servern sein, sondern der PC Markt. Man erinnere sich an den Pentium Pro: Ein mit 32 Bit Software schneller Prozessor, leider teuer weil er einen L2 Cache auf dem Chip hatte. Als er dann unter Windows 95 langsamer als ein gleich schnell getakteter Pentium war, war dessen Schicksal im Consumer Markt besiegelt. Was glauben Sie kaufen die Leute wenn es erst mal ein Windows XP-64 gibt, bei dem auch noch die alte Software läuft. Einen Pentium 4 von Intel, bei dem bei 4 GByte Speicherausbau Schluss ist oder einen Athlon 64, der eine 64 Bit Plattform ist?

Wann kommt der 128 Bit Prozessor?

Der Itanium hat deswegen so lange auf sich warten lassen, weil Intel nicht nur mit der 32 Bit Linie im PC Geschäft erfolgreich war, sondern auch bei größeren Systemen Es gibt wie oben angeführt mehrere Kriterien die einen 128 Bit Prozessor ausmachen. Vom Adressbus her reichen 64 Bit bei der heute üblichen Vervierfachung der Speicherdichte alle 3 Jahre noch für 48 Jahre. Bislang nutzt der Itanium sogar nur 44 der 64 Adressbits die möglich wären - um Chipfläche und Anschlusspins einzusparen. Der Prozessor der 64 Bit adressieren muss wird mit Sicherheit eine andere Technologie als heute erfordern, denn auf den 64 MBit Speicherchips (eingesetzt in 64 und 128 MByte DIMM's) braucht man 500.000 Elektronen um ein Bit zu speichern. Würde man dies auf eine Elektron reduzieren (In der Theorie, nicht praktisch möglich), so kann man die Kapazität lediglich um 219 erhöhen.

Anders sieht es bei der Registerbreite und dem Datenbus aus. Schon heute findet sich hier einiges "128 Bittig". Dies wird bestimmt durch den Trend von sogenannten Multimediaanwendungen - Anwendungen bei denen wenig Code ausgeführt wird, aber große Datenströme auf immer dieselbe Weise bearbeitet werden, wie MP3 Komprimierung, MPEG Dekodierung oder Spiele. Grafikprozessoren haben heute Datenbusse von bis zu 256 Bit Breite.

Man sollte allerdings nicht vergessen, das es dafür schon Speziallösungen gibt. DSP - Digitale Signal Prozessoren erreichen höhere Geschwindigkeiten durch Wortbreiten von 128 Bit. Der neueste von Texas Instruments die TMS 320C64 Serie schafft in einem Test bei der eine FFT erzeugt wurde 4800 MIPS bei 600 MHz Takt. Ein Pentium III erreicht im selben Test 3390 MIPS bei 1130 MHz. DSP's sind in der Praxis weit verbreiteter als Prozessoren, denn Signalverarbeitung gibt es in vielen Gebieten. Sei es im CD-Player, in der Elektronik von Autos oder in Handys. Auch die Prozessoren in Grafikkarten gehören in diese Kategorie.

Der Vorteil bei einem PC Prozessor ist, das auch das System schneller wird. Doch schon heute sinkt der Umsatz von Intel und AMD - Fast jeder hat einen PC und er ist auch schon jetzt schnell genug. So wird der 128 Bit Prozessor noch eine Weile auf sich warten lassen - Derzeit braucht man nur einen 128 Bit Datenbus. Dieser ist aber auch schon bei den 64 Bit Prozessoren realisierbar.

Auch im Bereich der Großcomputer hat sich in den letzten 25 Jahren keine größere Architektur als 64 Bit entwickelt. Seymour Cray führte 1968 die Cyber 7600 ein - eine 60 Bit Maschine und seit der Cray 1S (1976) sind die meisten Supercomputer 64 Bittig. Die Geschwindigkeitssteigerung geschieht durch die Bearbeitung von 64 Zahlen in einem Vektor gleichzeitig - Das entspricht einer Datenbandbreite von 4096 Bits! So verwunderte es nicht das die Cray 2 nicht weniger als 64 RAM Bänke über Interleave angesprochen hat.

Bei einem PC Prozessor ist wegen der endlichen Anzahl der Leitungen (Pins zum Prozessor, Bus zum Speicher) leider eine solche Power nicht möglich.

Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.


© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Neues Hier werben Bücher vom Autor Buchempfehlungen Top 99