Faktor 125

Seit dem ersten PC hat sich die Technik rasant weiterentwickelt – nun ja bis etwa vor einem Jahrzehnt, seitdem geht es deutlich langsamer aufwärts, sowohl was die Kapazität von Arbeitsspeicher angeht, wie auch Festplatten oder Prozessorgeschwindigkeit. Doch in den ersten 30 Jahren hat sich die Technik enorm entwickelt. Ich nehme mal als Vergleich, den ersten IBM PC bei dem eine Festplatte serienmäßig vorhandenen war, den 1983 erschienenen IBM PC/XT. Für Kenner: IBM Modell 5160. Dessen wesentlichen Kenndaten waren:

  • 8088 Prozessor mit 4,77 MHz (16/8 Bit)
  • 256 Kilobyte Arbeitsspeicher
  • 10 MB Festplatte (optional)
  • 360 KB Floppydisk Laufwerke

Continue reading „Faktor 125“

Die Achtziger – die goldene Zeit der „persönlichen Computer“

Loading

Auf meinen heutigen Blog kam ich wie so oft durch etwas völlig anderes. Mein Radiosender SWR-1 macht jedes Jahr im Oktober eine Hörerhitparade, die dann fünf Tage dauert. Deren Reiz liegt darin, dass man vieles hört, was sonst nicht läuft und auch während der Zeit keinen Titel mehrmals – ausgenommen seltene Covers. Seit einigen Jahren schieben sie auch eine kurze Hitparade ein, die dann nur einige Stunden dauern. So auch eine achtziger Hitparade.

Ich rechnete damit, dass die Platzierung ähnlich ist wie bei der normalen Hitparade, die sehr hardrock-metall-lastig ist mit Hits von AC/DC, Metallica, Iron Maiden oder Gun’s Roses. Aber es kam anders. Es war viel neue Deutsche Welle vertreten und der Spitzenreiter – Tom Schilling mit „Major Tom“, der landete bei der letzten regulären Hitparade auf Platz 295, also nicht weit vorne. Continue reading „Die Achtziger – die goldene Zeit der „persönlichen Computer““

Die Zahlen für heute: 1,68 und 3,62

Loading

Ich habe in der letzten Woche zwei Artikel in meiner Computer-Ecke fertiggestellt. Den einen als Zusammenfassung bisheriger Detailartikel über den Ablauf in einem Prozessor als Beispiel für den Alder Lake Performance Kern. Für den zweiten hat mich die Suche nach einem neuen PC inspiriert, dazu später mehr. In ihm geht es um die Steigerungen des IPC seit Einführung der Core-Mikroarchitektur mit dem Merom, das war immerhin schon 2006.

Der IPC Wert ist ein guter Wert für die Effizienz einer internen Architektur eines Prozessors. Das wird am ausgeschriebenen Namen deutlich, nämlich Instructions per Cycle. Also wie viele Anweisungen kann ein Prozessor pro Taktzyklus ausführen. Bei Mehrkernprozessoren muss man den Wert dann mit der Anzahl der Kerne multiplizieren und um die Gesamtzahl zu erhalten dann noch zusätzlich mit dem Takt. Früher brauchten Prozessoren mehrere Takte für einen Befehl, der Wert war also weit unter 1. Für einen Z80 lag er z.B. bei 0,147 und für einen Intel 8086 bei 0,1. Im Laufe der Entwicklung wurden die Zahl der Takte durch die Einführung einer Pipeline und ihrer Verbesserung über Generationen reduziert. Der 80486 konnte schon 80 % der Befehle in einem Takt ausführen, das hießt sein IPC-Wert lag knapp unter 1. Für mehr als einen Befehl pro Takt benötigt man eine superskalare Architektur, das heißt die einzelnen Untereinheiten eines Prozessors müssen mehrfach vorhanden sein. Das begann bei dem Pentium mit zwei Ganzzahleinheiten. Der Performance Kern des Alder Lake Prozessors (Core ix-12xxx) hat als Beispiel drei Befehldekoder die parallel arbeiten. Die dekodierten Befehle werden an 12 Ports verteilt und an diesen hängen 33 Untereinheiten, die sie ausführen – die große Zahl ergibt sich daraus, dass der Prozessor zwar bis zu acht MikroOperationen (ein Befehl zerfällt in eine bis vier Mikrooperationen) pro Takt dekodieren kann, aber die Ausführung jeder Operation kann dann durchaus mehrere Takte erfordern. Die überzähligen Ports und Funktionseinheiten sorgen dafür, das genügend Einheiten frei sind, denn sonst muss man warten, bis ein Befehl abgearbeitet ist. Für den Performance-Kern nennt Intel einen IPC von 3,4 also zwischen drei und vier Befehle pro Takt. Die Prozessoren der I7 und I9-Linie haben zudem noch Effizienzkerne, die langsamer sind, aber viel Platz auf dem Chip sparen. Sie haben einen IPC von 2,6.

Intel hält sich bedeckt bei älteren Generationen mit IPC Angaben, die schwer ermittelbar sind, denn dazu müsste man ja bei verschiedenster Software die ausgeführten Befehle zählen. Nur wenn es positives zu vermelden gibt veröffentlicht Intel Angaben so eben zu Alder Lake (12nnn).

Es war für mich relativ schwierig die wahre Geschwindigkeitssteigerung über Generationen festzustellen und deswegen habe ich auch längere Zeit nichts geblogt. Nicht das es Benchmarkwerte nicht gäbe. Das Problem ist nur: ein Benchmark der 2006 aktuell war, wird 2021 nicht mehr verwendet. Schließlich ist es mir doch gelungen und ich habe für die Mittelklasse von Intel, die Core i5 Serie zu jeder Generation einen Prozessor gefunden:

Prozessor Kerne Takt normal Takt Turbo Cinebench Singlehthread Cinebench Multithread Cinebench / Kern GHz Single Cinebench / Kern GHz Multi
i5-760 4 2,8 204 705 72 63
I5-2400 4 3,1 267 941 86 76
i5-3470 / i5-3570K 4 3,2 3,4 275 1010 81 79
i5-4570 4 3,2 3,6 345 1280 96 100
i5-5775C 4+HT 3,3 3,7 371 1717 100 130
i5-6400 4 2,7 3,3 344 1247 104 114
i5-7500 4 3,4 3,8 399 1443 105 106
i5-8400 6 2,8 4,0 416 2284 104 136
i5-9400 6 2,9 4,1 426 2341 104 134
i5-10400 6 + HT 2,9 4,3 450 3197 101 183
I5-11400 6 + HT 2,6 4,4 529 3888 120 249
i5-12400 6 + HT 2,5 4,4 667 4797 148 320

Trotzdem ist es nicht ganz fair, denn Hyperthreading bringt etwa 30 Prozent Mehrleistung, bei den entsprechenden Prozessoren die Technologie haben so sollte ich ohne diese Technologie vergleichen, aber die neueren Prozessoren haben immer Hyperthreading von vom Broadwell fand ich nur den einen Prozessor mit Hyperthreading.

Was sagt die Tabelle aus? Ignoriert man die Taktsteigerungen, die es in der Zeit gab – der Basistakt fällt sogar seit einigen Genrationen wieder, nur der Turbo Takt steigt – und das es immer mehr Kerne pro Prozessor gibt, bei Intel im Desktop-Segment bis 16 Kerne, 2006 waren es maximal vier – dann hat sich die Singlethread-Performance in der Zeit etwas mehr als verdoppelt die Mulithreadleistung sogar verfünffacht. Ab Haswell hat ein Prozessor einen höheren IPC bei Multithread als bei Singlethread. Das liegt an immer mehr Funktionseinheiten, die intern vorhanden sind und sie so besser ausgelastet werden. Der Hauptzugewinn bei Single-Thread liegt in dem gesteigerten Takt im Turbo Mode – hier von 2,8 auf 4,4 GHz, der Zugewinn bei Multithread bei immer mehr Kernen – beim i5-12400 sind es 6 mit Hyperthreading (das etwa 30 % bringt also für zwei weitere Kerne gut ist).

Was auch gut in der Tabelle sichtbar ist, ist das Intel deutliche Probleme mit seiner Fertigungstechnik hatte. Die Intelstrategie genannt „Tik-Tock“ wurde zeitgleich mit der Core-Mikroarchitektur eingeführt und sah eine beschleunigte Entwicklung vor – es sollte jedes Jahr eine neue Generation eingeführt werden. Zuerst eine Architekturverbesserung „tik“ – das sind Sandy Bridge, Haswell, Skylake .. und dann im nächsten Jahr eine neue Fertigungstechnologie mit kleineren Strukturbreiten, also 32 nm, 22 nm, 14 nm, 10 nm …

Das Problem: Den 10 nm Schritt, den man eigentlich mit Kaby Lake (7 Generation) einführen musste, bekam man nicht hin, er klappte erst bei Comet Lake (11 Generation). Entsprechend sieht man, dass die CPUs mit den Nummern von 7nnn bis 10nnn in der IPC recht ähnlich sind. In der gleichen Zeit führte AMD die Ryzen-Architektur ein, die in der dritten Generation „Zen 3“, schon 7 nm Fertigungstechnologie verwendet. Mit der aktuellen 12-ten Generation hat Intel aber aufgeschlossen und teilweise AMD überholt, zumindest wenn man den gleichen Preis für den Prozessor zugrunde legt (einen Threadripper mit 64 Threads wird auch das Spitzenmodell I9-12900 mit 16 Kernen nicht einholen, aber er spielt auch preislich in einer anderen Liga. Er kostet derzeit um die 1.500 Euro

Im Wesentlichen haben wir in den letzten 15 Jahren – so alt ist die Core Mikroarchitektur – also vor allem mehr Geschwindigkeit durch mehr Kerne erreicht. Nur ist dem Grenzen gesetzt. Jeder Kern benötigt mehr Daten. Schon heute kann ein einziger Kern eines Alder Lake Prozessors mehr Daten anfordern, als zwei DDR5 Module liefern können. Dabei ist die Taktfrequenz des Busses zum RAM in der Zeit wenig gestiegen. Der erste Prozessor in der Liste, Core I5-760 unterstützt nach Intel Angaben FSB Frequenzen von 1066 und 1333 MHz. Der neueste Intel Prozessor DDR5-RAM mit bis zu 5200 MHz – das ist nur der Faktor 5. Um das aufzufangen, wurden die Caches pro Generation zu Generation größer. Der I5-760 hatte 8 MB Cache, der i9-12900 schon 44 MB.

Nun noch warum ich auf die Recherche der Zahlen gekommen bin. Meinen derzeitigen PC habe ich im Juli 2014 gekauft, damals für 630 Euro, er wird nun bald acht Jahre alt. Schon seit letztem Jahr schiele ich nach einem neuen. Würde ich wieder einen Intel Prozessor kaufen, so fiele die Wahl auf den Intel i5-12400 der in etwa auch so viel kostet, wie damals der i5-4690 in meinem PC. Bekommen würde ich dafür die 1,68-fache Singlehtread Leistung und die 3,62 fache Multithreadleistung. Der Zuwachs von weniger als 70 % in fast acht Jahren ist jetzt nicht so viel und bei der Multithreadleistung sollte man bedenken, dass 6 Kerne mit Hyperthreading in etwa 7,8 echten Kernen entsprechen und somit fast doppelt so viel wie mein Prozessor jetzt hat.

Was mich davon abhält, ist neben dem Aufwand alles wieder neu einrichten zu müssen, vor allem die Kosten. Allerdings schaue ich derzeit nach einem Rechner mit einer Ryzen 5600G oder 5700G CPU. Der ist in der Performance eher noch etwas schlechter als die Intel CPU, aber die integrierte Grafik ist um ein vielfaches besser. Ich spiele am PC, aber nichts wo es auf viele FPS ankommt, sondern gerne rundenbasierte Spiele, doch auch wenn die ruckeln machte s keinen Spass. Wie bisher will ich daher eine integrierte Grafik, aber eine leistungsfähige. Das Dumme nur: ein neuer PC würde mindestens 800 Euro kosten, und der hat dann Pferdefüße wie Noname-Komponenten oder nur einen digitalen Monitorausgang – ich habe aber zwei Monitore. Geht man dann zu einem PC-Konfigurator und wählt dann die Komponenten selbst und setzt auf Marke anstatt No-Name, dann kommt man schnell auf einen Preis von 1.000 Euro – wohlgemerkt bei dem gleichen Arbeitsspeicher, gleicher SSD-Größe wie mein derzeitiger Rechner. Also 1.000 Euro mehr nur für einen neuen Prozessor – ist mir zu teuer. Von einem Aufrüstkit nehme ich mangels handwerklicher Begabung (vor allem Prozessor und Prozessorkühlermontage) Abstand und die naheliegendste Option, einfach eine Grafikkarte einzustecken. Die kann man dann auch beim nächsten PC nutzen und das erlaubt es dort eine CPU ohne GPU einzusetzen. Eine Grafikkarte, die in der Leistung etwas oberhalb der Onboardlösung angesiedelt ist, aber noch vor zwei Jahren bezahlbar war, wie eine Radeom RX 580 kostet mittlerweile anstatt 150 nun schon 300 Euro. Mein Entschluss ist es erst mal zu warten bis die Preise wieder „normal“ sind. Der PC tut es ja noch gut, bei der Recherche stellte ich fest das sogar noch nagelneue PCs mit dem Core i5-4570 verkauft werden, also einem Prozessor derselben Generation wie meiner, nur etwas weniger leistungsfähig (je höher die letzten drei Ziffern sind, desto leistungsfähiger – hier also 570 zu 690.

Das Ende dürfte spätestens 2024 kommen. Weder hat mein Mainboards ein TPM, noch wird der Prozessor von Windows 11 unterstützt, wie eigentlich jeder Prozessor, der älter als die Jahre ist. Dann läuft der Support für Windows 10 aus, das mal als „Windows auf Lebenszeit“ angekündigt wurde – die Lebenszeit sind bei Microsoft wohl neun Jahre, bzw., wenn man berücksichtigt, dass jeder der einen mindestens drei Jahre alten PC hat nicht auf Windows 11 umsteigen kann, sechs Jahre. Ist ja nicht das erste gebrochene Versprechen von Microsoft, die erste Version von Windows bekam, nachdem sie über zwei Jahre zu spät erschien, sogar von der Zeitschrift Infoworld die Bezeichnung „Vaporware“. Riskieren, die Nachfolgeversion zu installieren, will ich nicht, das klappt zwar zur Zeit, doch mein Vertrauen in Microsoft ist nicht sehr groß. Ich könnte mir gut vorstellen, das sie bei einem Update dann die Liste von Anforderungen, die man derzeit leicht umgehen kann, zur Pflicht machen und dann habe ich ein nicht mehr laufendes Windows oder zumindest nicht mehr gewartetes Windows auf dem Rechner.

Mein Tipp für alle deren Rechner noch gut läuft: wartet mit Upgrades oder Neukäufen ab, bis sich die Prise wieder auf das Vor-Coronaniveau bewegt haben.

35 Jahre PC – Verkleinern, Leistungssteigerung und Preisverfall

Auf mein heutiges Thema kam ich durch einen Test in der ct‘ für M.2 SSD. Für alle, die wie ich einen einige Jahre alten Rechner haben: SSD sind inzwischen so klein, dass es neben dem alten Standard SATA, den auch Festplatten haben, einen neuen gibt. M-2 SATA sind kleine Platinchen, 22 m hoch, 42 bis 80 mm lang, vergleichbar den DIMM von RAM-Riegeln. Neuere Rechner haben so einen Steckplatz und es ist auch folgerichtig, denn SATA wurde als Schnittstelle nur genutzt, damit man SSD in alte Rechner einbauen konnte. Praktisch keine SSD benötigte auch nur den Platz, den ein 2,5 Zoll Laufwerksgehäuse bot. Dabei benötigte man für den Einbau dieser Größe in einen Desktop noch Winkel, weil hier der Laufwerksschacht für 3,5 Zoll ausgelegt war. Trotzdem gibt es die M.2-SSD in Kapazitäten bis 8 Terabyte zu kaufen – fast so viel wie die größten Desktop Festplatten. Kein Wunder. Passen doch schon auf eine Mikro-SD Karte, einige Quadratmillimeter groß, bis zu 512 GByte und für 8 Terabyte braucht man dann nur 16 dieser kleinen Plättchen. Continue reading „35 Jahre PC – Verkleinern, Leistungssteigerung und Preisverfall“

Warum IBM nicht langfristig erfolgreich mit dem (IBM-)PC war

Ich habe ja schon Artikel über den IBM PC im Blog geschrieben, über die Technik, zum 30-jährigen und 35-jährigen Jubiläum. Dann gibt es noch die legendäre Geschichte von PC-DOS. Doch darum geht es nicht in diesem Artikel. Die Schöpfungsgeschichte des IBM PC habe ich schon ausführlich beackert. Ebenso seine Macken und die Unkenntnis der Manager vom Markt und nur mal den Firmen, die dort tätig sind.

Nicht immer ist es das beste Produkt, das marktbeherrschend wird. Das kennt man nicht nur vom Computer. Das meistverkaufteste Auto war der Käfer – sicher nicht das beste Auto. Ebenso verkaufte sich die „Ente“ recht gut, obwohl manche sie nicht mal als Auto bezeichnen würden. Ich denke die Entwicklung, die auf den IBM PC folgte, war vorhersehbar, auch wenn sie IBM selbst erstaunte. Continue reading „Warum IBM nicht langfristig erfolgreich mit dem (IBM-)PC war“