Der Tod der Computerfamilien

Es war einmal … ja es war einmal eine Zeit da war die Computerwelt noch in Ordnung. Es gab verschiedene Familien, in denen sich jeweils unterschiedliche Hersteller tummelten und alle waren zufrieden und machten Gewinne.

Gehen wir mal 30 Jahre zurück – ins Jahr 1981. Da gab es die Großrechnerwelt. IBM und die sieben Zwerge (Burroughs, Sperry Rand, Control Data, Honeywell, General Electric, RCA und NCR) produzierten Großrechner. Maschinen die ganze Räume einnahmen, an die niemand direkt herankam und deren Rechenleistung sich entweder mehrere Benutzer teilten oder die die gesamte Buchhaltung eines Großunternehmens übernahmen.

Die Rechner wurden meist gemietet, hatten einen vor Ort Service und bestanden aus eigener Hardware der Hersteller.

Das galt auch für die Supercomputer, wobei diese einen noch kleineren Markt bedienten, noch teurer waren und dafür ziemlich schnell und auf Rechnungen (nicht Datenverarbeitung) optimiert.

Belegte ein Großcomputer noch einen ganzen Raum, so war ein Minicomputer je nach Modell nur noch so groß wie eine Kommode oder ein Schrank. Bedient wurde er von einem Ingenieur oder geschulten Anwender. Minicomputer wurden anders als Großrechner in Serie gefertigt und entsprechend verkauft – ohne Mietservice und Techniker. Dafür kosteten die billigen auch nur noch so viel wie ein Auto, während ein typischer Großrechner eher im Preisbereich eine Villa lag.

Tja und dann gab es noch ganz neu den Microcomputer, die billigsten Exemplare waren Konsumergeräte, die etwas teureren immerhin für Geschäftsleute bezahlbar. Sie bestanden aus standardbausteinen von Halbleiterherstellern und mancher wurde von einer Einzelperson in einigen Monaten entworfen.

Von den Firmen welche die oberen Preisklassen bedienten nahm so keiner diesen Markt ernst. Computer an Einzelpersonen verkaufen? Vielleicht wie Fernseher von der Palette? Undenkbar. Dafür sind die doch viel zu kompliziert….

Nun ja. Mitte/Ende der achtziger Jahre tauchten die ersten Workstations auf. Ausgestattet mit den schnellsten 32 Bit Prozessoren ihrer Zeit, mit Unix als Betriebssystem und gut mit Speicher/Plattenspeicher ausgestattet machten sie den Minicomputern das Leben schwer, denn eine wichtige Anwendung, die grafische Aufarbeitung von Daten oder Konstruktionen konnte man damit schon erledigen.

Zeitgleich tauchten die ersten Supercomputer aus, die aus Tausenden von PC-Prozessoren bestanden. Auch sie waren erheblich billiger als die Spezialhardware und war erst einmal die Software erstellt die verteilt auf so vielen Prozessoren laufen konnte, war auch deren Hauptnachteil beseitigt.

Noch immer lief aber das Großrechnergeschäft ganz gut.

Nochmals 10 Jahre später sah es aber ganz anders aus. DEC als größter Minicomputerhersteller wurde von Compaq, einem PC Hersteller übernommen. Die meisten Herstelelr von Workstations wie Apollo und Silikon-Graphics waren inzwischen auch aufgekauft worden, denn PC’s hatten nun auch diese überflüssig gemacht und Supercomputer bestanden selbst bei Cray nur noch aus PC-Prozessoren, aber eben einige Tausend davon. Selbst IBM setzte nun die PowerPC Prozessoren für ihre Großrechner ein.

Heute gibt es die Familien im eigentlichen nicht mehr. Es gibt nur noch den PC als individuellen Rechner und Server mit denen man üblicherweise über ein Netzwerk Kontakt aufnimmt. Je nachdem wie viele Prozessoren ein Server hat ist es ein Webserver, ein Midrange Server (ehemals Minicomputer) oder man spricht von einem Großrechner oder Supercomputer.

Ubiquitäre Technologien wie eigene Busse zwischen den Prozessoren und Knoten oder eigene Technologien bei Massenspeichern sind auf dem Rückzug. Selbst bei Supercomputern findet man nun Ethernet in den schnellsten verfügbaren Stufen.

Eigentlich sollten die Halbleiterhersteller da frohlocken, doch auch bei denen ist das Sterben eingekehrt. Eigentlich gibt es nur noch drei Technologien für alle Familien die ich hier nannte (wenn man den Embeddedbereich oder Konsumerelektronik hinzunimmt werden es ein paar mehr): Intel/AMD’s x86, IBM’s PowerPC und Suns SPARC. Wobei ich drauf tippe, dass die erste 90% des Marktes hat mit Tendenz zu 100%.

Ob das das war was IBM beabsichtigte als sie 1980 sich für den 8088 entschieden? Ich glaube nicht….

18 thoughts on “Der Tod der Computerfamilien

  1. Moin,

    ich denke der Hauptgrund fuer das sterben des Mainframes war eine Aenderung in den Lizensbedingungen fuer das Betriebssystem. Die Betriebssysteme der 24 Bit Mainframes /360 und /370 waren distributed in source and object, licensed without charge and warranty, d.h. im Quellcode und binaer, ohne Kosten oder Garantie. Heute heist so was OpenSource und die Politik von IBM war damals fette Software (MVS=Moves very Slowly) zu verschenken, damit die Kunden fettere Computer kaufen. Mit der Einfuehrung der 31 Bit Mainframes der /390 er Serie gab es neue Betriebssysteme, die ploetzlich nur noch im Object Code zu mieten waren.

    Damit starb auf einen Schlag die Klasse der Mainframe Systemprogrammierer und ich bin damals wie so viele andere zu so genannten Offenen Systemen, d.h. Unix look likes gewechselt. Ohne Entwickler ist eine Platform aber tot und IBM melkt seitdem die Cashcow der Anwender die immernoch Mainframe Software haben.

    Der andere Punkt an deinem Artikel ist, dass deine Liste der CPUs bei weitem nicht vollstaendig ist. Zum einen gibt es immernoch Mainframes, inzwischen mit 63 Bit als Z-Architektur, aber es ist fuer einen Hacker unmoeglich auf einem solchen zu Programmieren, ja noch nicht mal moeglich ein Mainframe Betriebssystem (z/VM oder z/OS) auf dem Hercules Emulator zu lizensieren.

    Des weitern hast du meiner Meinung nach die wichtigsten Prozessoren die eine Chance haben das WinTel Monopol zu brechen vergessen: MIPS und ARM. Schon heute werden manche Webseite ueber 50% von Linux/ARM Systemen besucht und mit der Verbreitung von Android wird das bestimmt mehr werden. Und wenn man auf der andern Seite der Mauer sich mal umschaut so ist MIPS als Longson und Godson extrem verbreitet.

    ciao,Michael

  2. Ich sprach von den klassischen drei Familien und der Vergangenheit. MIPS hatte mal eine Bedeutung bei den Workstations, aber der Marktanteil ist rückläufig.

    ARM ist ein Prozessor für Embedded Devices also Handys, Smartphones inzwischen auch Webpads. Aber kennst Du Server oder Supercomputer aus ARM Prozessoren? In den TOP500 findest Du zumindest keinen.

  3. Bei den Supercomputern findet man neben X86(64) und PowerPC auch zunehmend GPUs. Bleibt aber fraglich, ob die für allgemeine Rechenaufgaben eine so weite Verbreitung finden, wie NVidia sich das wünscht.

  4. Die Statistikfunktion der Top500 Seite zählt dabei offenbar nur das, was als Hauptprozessor angegeben wird. Alleine in den Top10 sind es aber der Tianhe1A, Nebulae und Tsubame2.0, die jeweils noch ein paar 100 oder 1000 GPUs parallel zu ihren Xeons oder was auch immer rechnen lassen. Ich vermute aber, solche hybriden Systeme effizient zu programmieren kann nicht viel Spaß machen…

  5. Das Hauptproblem, soweit ich mal einen Benchmarkvergleich mit einem normalen x86 Mehrkern in Erinnerung habe ist dass die Performance je nach Anwendung sehr unterschiedlich sein kann.Im PC Bereich gibt es einige CUDA Anwendungen, aber selbst Intel hat inzwischen seinen GPU-Killer Larrabee wieder begraben.

    Man darf auch nicht vergessen, dass gerade erst der Schritt zu doppelter Genauigkeit getan wurde und die ganzen transzendenten Funktionen noch fehlen.

  6. Auf globalen Märkten und mit der Notwendigkeit doch sehr hohe Investitionen tätigen zu müssen, ist es doch kein Wunder, dasses nur noch so wenige Hersteller gibt.
    Ich bin mal gespannt, wie es mit der Verwendung von RISC Prozessoren weiter gehen wird und mit Open Source. Wir kommen vielleicht von der MS und x86 Monokultur etwas ab. Ich hab mich privat auch seit ca. 1987 vor den Intel-Karren spannen lassen und fast jede (Fehl)entwicklung mitgemacht. Immer „mehr“ immer „schneller“, und dabei das eigendliche Ziel aus dem Auge verloren. PC wurde mehr und mehr zum Selbstzweck und Technikspielzeug (keine PC Spiele – nie!)

    LG Frank

  7. IBM verwendet POWER in seinen Leistungsfähigen Rechnern.
    PowerPC ist eine starkt vereinfachte Architektur zur Implementierung auf einem Chip.
    PowerPC wird heute im Embedded Bereich verwendet.

  8. Hallo,
    im Consumerbereich gibt eventuell AMD den schleichenden Ausstieg aus der x86 Architektur vor, denn mit dem neuen AMD Fusion E350 „Zacate“ Chip sind 2 stark entschlachte x86er-Kerne („Bobcat“) mit einer (relativ) außergewöhnlich starken Grafik (HD6310) kombiniert, die neben DX11, UVD3 auch die neue CUDA-ähnliche Schnittstelle OpenCL bietet. Sollte mittelfristig Software diese Gegebenheiten unterstützen, werden rechenintensive Dinge zunehmend auf die GPU ausgelagert, deren Arbeitsweise und Architektur sich deutlich von X86 unterscheidet. Die x86 Kerne dienen dann nur noch zum Bereitstellen des x86-Betriebssystems.

    Schauen wir mal, ob sich das wirklich so entwickelt. Ich habe mir schon ein Zacate-Board bestellt. Wird mein neuer HTPC.

  9. Das zukünftige Windows (8?) soll auch zu RISC Prozessoren kompatibel werden, so wurde in einem Forum berichtet. So wie es aussieht ist das Smartphone der PC der Zukunft, ob mit oder ohne Windows. Dual Core Prozessoren mit guter Leistung gibts ja dort auch schon. HD Inhalte können über TV wiedergegeben werden, eine Tastatur wird man auch anschließen können und alles andere. Das wird vielen Nutzern anstelle eines heutigen PC völlig genügen. Für meine Anschaffungen will ich noch etwas abwarten, es hat ja schon einige Produktankündigungen für die kommenden Monate gegeben. Ich hab auch keine Erfahrung mit Android und kann schlecht beurteilen welches Betriebssystem das Rennen machen wird.
    Von der Geamtleistung dieser neuen „Rechnergeneration“ wird man dann wohl auf dem Leistungsstand von vor ein paar Jahren beim PC liegen, aber wenn ein schlank und schnell und sauber programmiertes Betriebssystem vorliegt dürfte das doch kaum ein Problem sein. Es wird aus meiner Sicht auch Zeit für einen Neuanfang.
    Apple hat mit dem ipad und dem maßgeschneiderten Marketingkonzept wirklich einen neuen Maßstab gesetzt. Was mir fehlt ist ein Gerät, das mir zusätzlich die Freiheiten gibt, wie ich sie vom PC gewohnt bin. Vor allem mein ich damit Konnektivität und freie Auswahl an Software.
    Machen wir uns keine Illusionen, Prozessoren und Speicher werden nur von wenigen Global Playern hergestellt. Das ist für den Innovationsprozess aber vielleicht nicht so schlimm. AMD und ARM verfügen ja auch über keine eigenen Produktionsstätten

  10. Smartphone der PC der Zukunft? Wohl eher nicht. Weshalb werden denn solche Minigeräte überhaupt gebaut? Doch damit man sie überall hin mitnehmen kann. Wenn man ein ganzes Drahtverhau mit Zusatzgeräten errichten muß um überhaupt einigermaßen damit arbeiten zu können dann ist das eben nicht mehr transportabel. Dann hat mann die Nachteile von einen transportablen Gerät UND die Nachteile einer stationären Anlage vereint. Wo soll da der Sinn liegen? Die Frage ist wohl nicht Smartphone oder PC, sondern Smartphone und PC. So teuer sind die Kisten ja nicht mehr daß man sich nicht beides leisten kann.

    I86 und kompatible Prozessoren haben eine völlig andere Maschinensprache als RISC-Prozessoren, das ist etwa so als ob du auf chinesisch angequatscht wirst. Ein RISC-Kompatibles Windows ist deshalb genau so wenig möglich wie eine deutsch-kompatible Version der chinesischen Sprache. Entweder deutsch oder chinesisch, beides kompatibel machen geht nicht.
    Und selbst wenn es eine speziell für den RISC-Prozessor geschriebene Windows-Version gibt, nutzt das nicht viel solange es nicht auch die nötige Anwendersoftware in der passenden Version gibt. Und gerade das werden die meisten Softwareproduzenten nicht für nötig halten oder auch einfach nicht können. Dann ist nichts drin mit freier Auswahl an Software.
    So neu wäre das ja nicht, frag mal einen alten Mac-Besitzer nach Mac-Versionen von Windows-Spielen.

  11. Es gab mal ein Windows für verschiedene Prozessoren x85, Power PC, MIPS, Alpha, SPARC. Hieß Windows NT und die Unterstützung für andere Prozessoren wurde Stück für Stück zurückgefahren.

    Es gibt eine absichtserklärung für leistungsstarke ARM Prozessoren die man in Netbooks einsetzt mal Windows zu portieren. Das ist aber nicht mehr als ein Nebenstz einer Keynote von Ballmer gewesen. Keine offizielles Statement oder gar Termine. Wenn dann ist an Tablet PC’s und Netbooks gedacht. Für Smartphones gibt es ja schon Windows mobile.

    Wenn die Smartphone den ausklapparen 24″ Monitor, die Fullsize Tastatur und eine 2 tb Platte eingebaut haben können sie den PC ersetzen. Nur ich denke ich wird das nie kommen. Genausowenig wie das Motorrad den PKW ersetzt hat obwohl es weniger ist und mobiler….

  12. @Elendsoft: der Vergleich mit dem Chinesischen ist an dieser Stelle unpassend, der trifft nur zu für fertig kompilierte Software im ausführbaren Format. Es würde Microsoft aber niemand daran hindern, in ihrem Visual Studio Compiler den Zielprozessor auf „ARM“ umzustellen und Windows neu zu kompilieren. Das gleiche gilt für Anwendungssoftware.
    Das Problem mit den Spielen am Mac ist nicht der Prozessor (schon gar nicht seit Apple vor ein paar Jahren von PowerPC auf X86 umgestellt hat), sondern die Schnittstellen zum Betriebssystem. Statt DirectX muss man OpenGL benutzen, CoreAudio statt DirectSound, Teile der grafischen Oberfläche müssen am Mac in Objective-C geschrieben werden u.s.w. Das alles liegt aber nicht am Prozessor, sondern nur am System. Mehrere Prozessoren gleichzeitig zu unterstützen ist übrigens im Prinzip kein Problem: ein kleiner Eintrag für den Mac-Compiler reicht, und das Programm wird als sogenanntes „Universal Binary“ gebaut, das in einem File PowerPC, X86 und X64 Code enthält. Das Betriebssystem sucht sich beim Programmstart automatisch den zur Hardware passenden Teil aus.

  13. Huh, da war Arne schneller und ausführlicher. Ich dachte mir nur, „da braucht man doch nur den Compiler an den Prozessor anpassen, dann läuft die Software auch darauf“. Freilich ist es nicht trivial, Compiler zu bauen, aber einer Firma wie Microsoft ohne weiteres möglich. Und sie machen es ja auch mit ihrem Visaul Studio.

  14. @Elendsoft und Bernd Leitenberger:
    Ich denke, das Problem mit dem Kabelsalat wird sich über eine Dockingstation gut lösen lassen. Festplattenplatz wird in der Cloude einrichten lassen und als 24″ Monitor das heimische TV. Ich denke hierbei an die Nutzer, die den PC vornehmlich fürs Internet, Mails, Social networks usw. benötigen, nicht an PC Spiele oder anders, das höhere Leistung erfordert. PC stehen nicht mehr so im Zentrum des Interesses der Konsumenten wie noch vor 10 Jahren. Der Markt erschließt sich doch zunehmend „untechnischen“ Kunden die einfache Geräte für ihre Bedürfnisse suchen.
    LG Frank

  15. Ich möchte hier noch mal an eine Idee erinnern, die Bernd irgendwo auf seinen Computerseiten erwähnte. Einfach eine Hochsprache wie Java nativ in den Prozessor implementieren (hard-wired), so daß der Prozessor ohne jede Software-Laufzeitumgebung Java-Programme nativ ausführen kann.

    Finde ich genial.

    Scheitert aber wohl an den vielen konkurrierenden Umgebungen (Java, Flash, .net Framework u.s.w.)

  16. Kabelsalat wird sich schon deshalb kaum vermeiden lassen, weil ja jedes Gerät irgendwie mit Energie versorgt werden muß. Und eine ganze Schachtelsammlung ist nun mal recht wenig mobil, egal ob mit oder ohne Kabel.
    Persönliche Daten in der Cloude? Selbstbespitzelung pur. Wer das macht hat es verdient.
    Fernseher als Computerterminal? Gab es schon bei den 8Bit-Heimcomputern, und hat meistens dazu geführt daß man sich dafür einen Zweitfernseher zugelegt hat. Also auch ein Schuß in den Ofen.
    PC stehen nicht mehr so im Zentrum des Interesses der Konsumenten wie noch vor 10 Jahren? Sag das mal einem Spielefreak.
    Nur weil nicht alle Leute einen PC brauchen, ist der noch lange nicht tot. Es gibt ja auch Leute, die ohne Fernsehen auskommen. Ist das Fernsehen deshalb tot?

Schreibe einen Kommentar zu Bernd Leitenberger Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.