Warum gibt es Desktop-Prozessoren mit nur wenigen Kernen?

Als 2004 von Intel der erste Zweikernprozessor auf den Markt kam, kündigte Intel an, dass sich die Kernzahl jede Generation verdoppeln würde. Der Pentium D entstand im 90 nm Prozess. Seitdem gab es die Schritte 65 nm (Merom), 45 nm (Penryn, Nehalem), 32 nm (Westmere, Sandy Bridge), 22 nm (Ivy Bidge, Haswell), 14 nm (Broadwell, Skylake, Kably Lake, Coffee Lake). Wäre Intel dem Versprechen von 2005 gefolgt, so hätten wir heute 64 Kerne pro Prozessor.

Dem ist nicht so. Lange Zeit gab es maximal 4 echte physikalische Kerne im Desktopbereich. Durch Hyperthreading können diese dem Betriebssystem 8 logische Kerne vortäuschen, jedoch ist dies nicht gleichbedeutend mit 8 echten physisch vorhanden Kernen. Mit der Einführung von Ryzen gibt es auch für den Normalverbraucher mehr Kerne, sowohl von Intel wie AMD. Allerdings zu hohen Preisen. Warum hat Intel die Prozessoren mit vielen Kernen nicht umgesetzt? Continue reading „Warum gibt es Desktop-Prozessoren mit nur wenigen Kernen?“

Das Ende eines Grundsatzes

Auch so könnte man ein Fazit aus den Benchmarks ziehen, welche die ct in ihren aktuellen Heft veröffentlicht. Sie hat Prozessoren von AMD und Intel unterschiedliche Benchmarks laufen lassen und auch die Prozessoren waren bunt gemischt – vom 35 Euro Exemplar bis zum neuen 950 Euro iCore i7 Haswell-EP Flagschiff.

Ich hatte jahrelang als Grundsatz beim Rechnerkauf bei allem auf die Mitte zu achten. Also bei Arbeitsspeicher, Prozessor, Festplattengröße. Damit bin ich immer gut gefahren. Man kann das auch gut begründen. Bei Festplatten ist es so, dass wenn man mehr Geld ausgibt, die Kapazität zuerst überproportional ansteigt, um dann stark abzuflachen. Bei Arbeitsspeicher bedeuten zu wenig, dass der Rechne rstark ausgebremst wird, weil viel auf die Festplatte ausgelagert ist, ist er zu groß wird er eventuell gar niemals vollständig genutzt. Bei Prozessoren gab es lange Zeit auch die Beziehung dass die Leistung jenseits der billigsten Exemplare zuerst stark anstieg und man bei den teuren Exemplaren extrem viel drauf zahlt für wenig Mehrleistung.

Wenn man das richtige Benchmark nimmt, findet man das auch noch in der ct bestätigt, so erreicht ein Celeron J1900 (35 Euro) 5% der Leistung eines ICore i7 5960X (950 Euro) – zumindest im Linpack Benchmark. Man kann aber auch mal sehen, wie schnell der Prozessor bei Benchmarks mit real existierenden Anwendungsprogrammen ist so der Office PC Mark 8 oder Sysmark 2014. Da kommt er Celeron schon auf 50-60% der Leistung des genannten iCore Prozessors. Der in etwa gleich teure Celeron G1840 erreicht sogar 80%. Wie diese enorme Diskrepanz? Continue reading „Das Ende eines Grundsatzes“

Es ist langweilig …

… und zar nicht nur in der Weltraumfahrt, sondern auch bei den Prozessoren. Das wurde mir klar, als ich in der Recherche für frühere x86 Generationen in alten ct‘ Artikeln nachgeschaut habe. Damals kamen Vergleiche zwischen den neu erschienen 32 Bit Prozessoren (MicroVax, NS3032, MC68020, V70) und der 80386, Artikel über neue RISC Architekturen und den Pentium. Viele waren selbst beim Pentium optimistisch, dass diese Architektur der Vergangenheit angehörte. Das war so nach  dem Muster „Der Pentium hat 3,3 Millionen Transistoren und emuliert mit einer RISC Schicht eine x86 CPU, der Alpha hat mit 1,7 Millionen Transistoren die dreifache Geschwindigkeit – klar das diese Emulationsarchitektur untergehen wird“. Continue reading „Es ist langweilig …“

Auf zu 10 GHz und mehr

Erinnert sich noch jemand an den Pentium 4? Als er vorgestellt wurde, betonte Intel, dass sein gesamtes Design auf hohe Taktfrequenzen ausgelegt sei. Er hatte eine enorm lange Pipeline, sprich er dekodierte einen Befehl in vielen Takten. er hatte nur wenige Funktionseinheiten, diese sollten aber die Mikro-Ops schnell abarbeiten. Und zuerst sah auch alles gut aus. In zwei Jahren wurde der Takt von 1,2 auf 3,2 GHz gesteigert. Intel präsentierte auf Präsentationen auch Prototypen die mit 5 und 7 GHz liefen (zumindest während der Vorführung). Doch bei 3,8 GHz war Schluss. Was den Träumen von vielen Gigahertz ein Ende bereitete, waren die Leckströme, die bei jedem Umschalten frei wurden und die exponentiell mit der Taktfrequenz anstiegen. Bei einer TDP (Thermal Design Power) von 125 Watt war Schluss. Um die dabei entstehende Abwärme abzuführen, brauchte man sehr große Kühler. Größere waren mechanisch (Zug an dem meist senkrecht aufgehängten Motherboard) wie auch vom verfügbaren Platz nicht in einem normalen PC Gehäuse unterzubringen. Continue reading „Auf zu 10 GHz und mehr“