Ideen für den PC – Teil 2

Die vielen Kommentare zu meinem letzten Beitrag haben mich bewogen, meine Antworten in einen Blogeintrag zu schreiben, anstatt weiter zu kommentieren. Zuerst einmal: Das Thema ist nicht neu. Wer die Suchfunktion des Blogs benutzt, wird sicher noch einige ältere Beiträge entdecken, so habe ich auch mal vorgeschlagen eine SSD in den PC zu integrieren. Doch dazu noch später mehr.

Fangen wir mal an mit dem Vorschlag: „Betriebssystem ins ROM“. Wer seinen ersten PC zur Zeit der Heimcomputer, also bis Ende der achtziger Jahre kaufte, kennt das Konzept: Das Betriebssystem war in einem ROM (Read Only Memory) integriert. Die „PC’s“ starteten extrem schnell, ich denke mein CPC 464 in weniger als einer Sekunde. Aber das war auch möglich. Es galt eigentlich nur einige interne Chips zu initialisieren und Variablen im RAM anzulegen. Das Betriebssystem bestand aus elementaren Routinen, die man heute als BIOS bezeichnen würde und das Interface war ein Interpreter für die Programmiersprache BASIC.

In dieser Form ist es sicher heute nicht für einen PC, wie sie ihn kennen, übertragbar. Es gibt doch einige Unterschiede. Ein heutiger PC ist schon komplexer aufgebaut. Alleine die Initialisierung der internen Geräte beim Start (also bevor das Betriebssystem geladen wird) dauert länger als die 5 s, die Hans fordert. Das ist inzwischen auch schon gegeben bei komplexeren Geräten die Chips enthalten. Selbst mein DVD Spieler oder Bittorrent Client brauchen mehr als 5 s zum Booten und die kosten beide unter 70 Euro.

Es sind dann noch einige Dinge zu beachten: Ein System das universell ist, wie ein heutiger PC benötigt Treiber, die müssen natürlich eingespielt werden, wenn das Gerät nutzbar sein muss. Es ist natürlich nicht praktikabel, für jedes nur denkbare Peripheriegerät Treiber zu integrieren.

Aber: Es gibt eine Lösung und das ist das, was ich schon mal vorgeschlagen habe: SSD zusätzlich zu Festplatten. Ich habe das schon mal genauer ausgeführt: Eine SSD sollte das Betriebssystem und die wichtigen Benutzerdaten aufnehmen, als Kopie zur Festplatte. Ich dachte damals mehr an die Datensicherheit und Arbeitsgeschwindigkeit: Von SSD kann schnell gelesen werden und sie es gibt keinen Headcrash. Da beim Betriebssystem fast nur gelesen wird (außer seltenen Updates) gibt es einen Geschwindigkeitsvorteil und die wichtigsten Daten des Benutzers (Dokumente) wären abgesichert. Wenn dort eine Kopie des Arbeitsspeicher liegt, könnte auch der Reboot schnell erfolgen, da man nur die Daten umkopieren müsste. Schnelle SSD erreichen 300 MB/s, etwa 2-3 mal schneller als Festplatten. Wenn vom Arbeitsspeicher 1 GB belegt sind, so müsste der PC nach 3-4 s wieder nutzbar sein.

Zu Andreas Buschmanns Vorschlägen: Ich denke vieles wird es in Zukunft geben. Der heutige PC krankt an der Vergänglichkeit. Anders ausgedrückt: Niemand rechnet damit dass ihn jemand so lange benutzt wie andere Unterhaltungselektronik. Speicher passt nicht mehr in 6 Jahre alte PC’s, CPU’s schon gar nicht. Ich glaube, wenn es nicht mehr so selbstverständlich ist, dass sich die Rechenleistung exponentiell ändert – und das ist eigentlich schon jetzt sichtbar, Festplatten steigen z.B. nur noch langsam in der Kapazität an und der nutzbare Geschwindigkeitsvorteil von mehr Kernen ist auch nicht so hoch wie die Verdopplung suggeriert. Ich denke dann wird viel mehr fest integriert sein. Also auch die CPU eingelötet und vielleicht auch der Speicher.

Es mag dann auch soweit kommen, dass die Booksize PC zunehmen werden, weil sie kompakt sind und für die meisten Leute (die nie ihren PC aufschrauben und was einbauen, dass mag für Leute die sich auskennen vielleicht komisch sein, aber die meisten Leute wollen das Ding nur benutzen und sich nicht mit der Hardware beschäftigen) wird das vollkommen ausreichen. Die heutigen Booksize PC kranken an der niedrigen Rechenleistung (Atom CPU) – aber wenn sich Prozessoren nicht mehr über Leistung differenteren können dann sind andere Kriterien wichtig, wie eben die Leistungsaufnahme – das es anders geht zeigen andere Prozessorfamilien die mit passiven Kühlkörpern auskommen.

Ob wir mal eine andere CPU Architektur bekommen? Vielleicht entfallen mal 8086 Mode und Protected Mode (80286), weil man sie nicht mehr braucht. Bisher sind sie immer drin, weil sie wenig CPU Fläche brauchen und Intel/AMD Umsatzeinbußen befürchten, wenn Kunden durch den Wegfall zur anderen Firma wechseln. (Man glaubt nicht wie lange in der Industrie Programme benutzt werden. Als ich 2003 mal wegen des Lovesun Virus durch den Daimler Campus tourte, um Rechner zu patchen die nicht dauernd am Netz hingen und manuell updatet werden mussten, sah ich ein System im Dauerbetrieb – es lief noch unter Windows 3.1….)

Doch diese Uraltmodi sind nur ein Problem. Das Grundproblem ist das die grundlegende Architektur über 30 Jahre alt ist. Würde man die Transistorenzahl, die inzwischen über 1 Milliarde angewachsen ist, sinnvoll einzusetzen, so würde wahrscheinlich eine viel effektivere CPU entstehen mit einem geradlinigen, schnell dekodierbaren Befehlssatz, vielen Registern und Optimierung auf heutige Streaming Anwendungen. Bisher war es so, dass Intel und AMD durch den riesigen Umsatz des PC Marktes es sich leisten konnten, die alte Architektur immer mehr aufzumotzen und das Problem mit hohen Takten, großen Caches und vielen Kernen zu umschiffen. Wenn das mal nicht mehr geht, dann könnten neue Konzepte vielleicht wichtiger werden. Gerechterweise sollte man sagen, dass Intel mit dem i860 und Itanium zwei Alternativen entwickelte, sie aber aus verschiedenen Gründen nicht erfolgreich wurden, während sich die Minimalerweiterung von AMD (AMD64 – 64 Bit Modus) erfolgreich wurde, weil sie eben kaum was änderte.

Das grundsätzliche Problem der IA86 Architektur, dass Millionen von Softwareprodukten auf ihr basieren. Wollen sie ihre ganze Software wegwerfen und neu kaufen weil sie einen neuen PC kaufen? Eine neue Architektur muss daher ziemliche Vorteile haben, damit sie die bestehende ablösen kann. Das ist ein bisschen so wie bei Linux: Es mag das bessere System sein, aber von meinen Lieblingsprogrammen laufen eben nur einige Mainstream Anwendungen. Alles andere könnte ich entsorgen. So lohnt es sich nur wenn die alte Architektur am Ende ist.

Ich denke vor allem wird der PC immer weniger wichtig wird. Es wird mehr spezialisierte Geräte geben. Multimediazuspieler für Fernsehgeräte und Beamer. Surfpads / ebook Reader. Für das brauche ich weder Monitor noch Tastatur. Der Datenspeicher kann dann ein NAS Gerät sein – zentral für den ganzen Haushalt. Der PC wird dann noch für Office Anwendungen benötigt werden oder in einer erweiterten Variante für Gamer – wobei dann auch Spielkonsolen attraktiver werden, wenn ein PC langlebiger wird und die Rechenleistung langsamer ansteigt. In 10 Jahren denke ich werden wir eine mehr dezentrale Architektur in einem Haushalt haben mit einer Vielzahl von Geräten mit denen wir das tun was heute noch die meisten mit einem PC erledigen.

Noch was neues: Für alle die neu da sind und mal gerne in den alten Beiträgen des Blogs stöbern wollen, gibt es neben dem Archiv, den Kategorien und der Suchfunktion nun auch noch ein Inhaltsverzeichnis. Es erstreckt sich Hinterweiler über 20 Seiten, weil ich mich auch langsam dem 900.sten Blogeintrag nähere.

Was gab es noch? Gestern sah ich „Wetten dass“. Eigentlich eine meiner Lieblingssendungen. Aber gestern war ich von den Gästen enttäuscht. Gerade das Open-Air Wetten Dass ist ja immer was besonderes. Warum der aber die prolligen C-Promis Lichter und Cindy von M. eingeladen wurden kann ich nicht nachvollziehen. Letztere hat dann auch noch massiv die Show gestört. Noch unverschämter ist es aber Bohlen mit einem Auftritt zu adeln, wobei es wahrscheinlich nur darum ging den beiden letzten DSDS Gewinnern einen Auftritt zu verschaffen. Wie tief die gesunken sind zeigte dieser auch: Keine eigenen Lieder stattdessen eine Coverversion von „Sweat“. Übrigens: Meine nur ich das die Tochter von Lionel Ritchie eine ziemliche Ähnlichkeit zu Paris Hilton hat?

So heute wieder ein Musiktipp mit persönlicher Story. Ich habe mal versucht mich zu erinnern welches das erste Lied ist, an das ich mich bewusst erinnere, genauer gesagt das erste das damals gerade aktuell in der Hitparade war. Ich bin auf drei gekommen. Demis Roussos mit „Good-By my Love Good-By“, Daniel Gerald mit „Butterfly“ und Mouth & MacNeal mit „How do you do“. Obwohl Butterfly etwas älter ist, habe ich mich für dass letzte entschieden. Nicht weil es ein großer Hit war – die Namen der Interpreten fand ich erst beim Suchen bei Youtube wieder. Aber mir blieb die äußere Erscheinung und die beiden unterschiedlichen Stimmen in Erinnerung: Der breite bärtige Mann mit der tiefen Stimme und diese zierliche Sängerin mit ihrer dünnen Stimme. Das war ein Kontrast der offenbar in meinem Gedächtnis hängen blieb. Außerdem denk ich habe ich das damals ziemlich oft mitgesungen. Für How Do You du und nana-nana reichte selbst mein Englischwissen als 7-Jähriger…..

Was waren die ersten aktuellen Hits an die ihr euch erinnern könnt? (damit bekomme ich auch mal so eine Einschätzung in welchem Alter meine Blogleser sind….)

5 thoughts on “Ideen für den PC – Teil 2

  1. Die Idee, das System im Flash-Speicher unterzubringen und die „normalen“ Daten auf einer herkömmlichen Festplatte, wird ja auch beim Konzept der Hybrid-Festplatte verfolgt. Diese geistert seit dem Start von Windows XP (das dafür spezielle Unterstützung haben sollte) durch die Medien, aber konkret im Einsatz gesehen hat man sie praktisch nie. Am Ende hat es wohl doch nicht so viel gebracht.

    Mitschuld ist bestimmt auch, dass die Betriebssysteme gerade auf den zentralen Datenstrukturen auch eine hohe Schreiblast produzieren! Man denke etwa an die Registry unter Windows, wo Dienste und Programme nicht nur ihre Einstellungen her beziehen, sondern beim Starten auch aktuelle Werte hinterlegen. Oder an die zahllosen „last-access“-Zeitstempel, die beim Lesen von Systemdateien modifiziert werden. Das sind alles „random writes“, ein paar Bytes hier, ein paar Bytes dort, womit die SSDs so gar nicht gut klarkommen.

    Helfen würde es, die Systempartition read-only zu mounten, weil dann die Zeitstempel-Updates wegfallen. Unter Windows geht das aber wohl gar nicht, unter Linux/BSD geht es nur mit der /usr-Partition, nicht aber mit /etc, wo zahlreiche kleine Config-Dateien liegen, und erst recht nicht mit /var, wo, wie der Name schon sagt, stark veränderliche Daten liegen. Aber /var in eine RAM-Disk zu mounten, geht auch nicht, denn z.B. /var/spool/mail soll ja durchaus einen Boot überleben können…

    Letztendlich sind die vorherrschenden Dateisystem-Layouts alle zu einer Zeit entwickelt worden, als Hybridspeicher nicht einmal denkbar waren, und auf so Dinge wie Lebenszeit der Daten hat niemand Rücksicht genommen.

    Intels X86 steht aktuell seit fast schon Jahrzehnten erstmal unter Druck – und zwar von einer Prozessor-Technologie, die ähnlich alt ist, nämlich ARM. Im embedded-Bereich hat ARM einen gigantischen Siegeszug hingelegt, vom DSL-Router über den DVD-Player bis hin zum Smartphone. Und nun werden die Smartphones so leistungsfähig, dass sie im unteren Leistungssegment direkt mit Intel (nämlich dem Atom) konkurrieren. Dass Apple das iPad mit einem eigenen ARM-Chip ausrüstet, statt einen Atom einzubauen, hat bei Intel sicher die Alarmglocken schrillen lassen. Doch Apple macht mit iPhone und iPad unbeirrt Intel-frei weiter und lässt sich anscheinend nicht einmal davon stören, dass Intel die aktuellen Core-i-CPUs an andere zuerst liefert. Vor wenigen Jahren war hingegen Apple noch Intels „preferred customer“.

    Und dann der nächste Tiefschlag für Intel: HP stampft den von den Medien anfangs des Jahres gehypten „Slate“, ein fast fertig entwickeltes Tablet basierend auf „Wintel“ (Windows-Betriebssystem und Intel-CPU), einfach ein, kauft stattdessen Palm und entwickelt auf Basis derer PDA- und Smartphone-Plattform nun ebenfalls ein ARM-Tablet.

    Und Google, mit Chrome OS vor einem Jahr noch belächelt, dürfte genau zum richtigen Zeitpunkt mit diesem „web-zentrischen“ Betriebssystem fertig werden, um den Massenmarkt mit Internet-Tablets so richtig zu befeuern.

    Kai

  2. Was die Bootzeiten angeht, es ist doch kein Problem in Zeiten von 100en GB großen Festplatten Suspend to Disk zu aktivieren, das kostet noch nichtmal Strom… wenns noch schneller gehen soll und man den Rechner ohnehin jeden Tag benötigt, einfach Suspend to Ram aktivieren, damit gehts wirklich blitzeschnell…

    Übrigens funktioniert das wirklich blitzschnell bei meinen alten Powerbook G4, aufklappen und da weitermachen wo man stehenblieb, wie es bei aktuellen Appleprodukten aussieht weiß ich nicht…

  3. Das mit dem Einlöten des RAMs ist so eine Sache. In embedded Geräten mit einer planbaren Softwareausstattung möchte man das RAM eingelötet haben, da es dann statistisch weniger Ausfälle gibt. Spielekonsolen zähle ich da zu den embedded Geräten.

    In PC Servern stecke ich gerne nach 2-3 Jahren RAM nach, um sie mindestens 2 weitere Jahre betreiben zu können. Alte Server >>4-5 Jahre und Arbeitsplatzrechner rüste ich gelegentlich noch bis zum maximalen RAM Ausbau auf. RAM Module nach älteren Standards sind fast immer noch zu bekommen, auch wenn sie deutlich teuer sind als RAM Module nach aktuellen Standards. Das ist für mich immer dann sinnvoll, wenn der alte Rechner aufwendig zu installieren war, und die Arbeitszeit für das Aufsetzen eines Ersatzrechners nicht da ist.

    Das Problem ist, das in neuen Großseriengeräten das RAM einen erheblichen Anteil am Einkaufspreis ausmacht, und mit Steckplätzen kann die RAM Ausstattung an den voraussichtlichen Bedarf angepasst werden, so daß sich die initialen Beschaffungskosten im Rahmen halten.

    Eine RAM Aufrüstung nach 2-3 Jahren ist immer dann problematisch, wenn der Verwaltungsaufwand um die RAM Aufrüstung zu bekommen genauso hoch oder höher ist, wie der einen neuen Rechner zu bekommen (Behörden, Großunternehmen).

    schöne Pfingsten,
    Andreas

  4. Hi,

    mal zu den 5 s Startzeit: Ursprünglich hatte ich da 10 s stehen, hab es aber nachher noch mal geändert. Vielleicht ist die Forderung doch ein bischen zu hoch gegriffen, aber insgesammt sollte es möglich sein, auch die Hardware so zu entwickeln, dass das Gesamtsystem auch bei einem Kaltstart, d.h. nach dem Einschalten in maximal einer Minute Einsatzbereit ist. Es müssen ja keine schweren Motoren (mit Leistungen im Kilowatt bereich) anlaufen…
    Was Betriebssystemkonzepte angeht, ich denke, da ist Windows sicherlich nicht der Weisheit letzter Schluss! Nun weis ich aber auch nicht, was Herr Tanenbaum in seinem neusten Werk über moderne Betriebssysteme schreibt. – Mein Exemplar ist von 1995 und damit auch nicht mehr ganz up to date. Aber wenn man das System so konzipiert, das auch grundlegende Treiber einer jeden Hardwarekomponente, die zusätzlich ins System eingebaut wird, auf einem ROM-Chip sitzen müssen, (der dann sinnvollerweise gesockelt ist) dann kann man auch das gesamte Betriebssystem ins ROM packen. Dann sind nur Nutzer- bzw. Konfigurationsdaten, wie die einzelnen Anwender ihren Arbeitsplatz gestaltet haben wollen, auf einer Festplatte abzulegen.
    Zur SSD hätte ich zu sagen, das die meiner Ansicht nach mittel bis langfristig die rotierenden Festplatten ablösen werden.

    Was die Nutzungsdauer angeht, da steckt doch immer noch das Konzept der „Wegwerfgesellschaft“ dahinter, frei nach dem Motto, alles was älter als 3 Jahre ist, ist per Definition Schrott. In dem Zusammenhang wundert es mich eigentlich, das an manchen Stellen immer noch Systeme unter DOS oder Win 3.11 laufen. Andrerseits reicht DOS für manche Steuerungsaufgaben aber auch aus, sofern da nicht sowieso noch eine SPS mit im Spiel ist, die die eigentliche Arbeit übernimmt.
    Nebenbei: der Rechner, auf dem ich das hier schreibe, ist inzwischen 10 Jahre alt: ein AMD K6 mit 300 MHz und 256 MB RAM; dazu eine 6 GB Festplatte. Das Gehäuse kann schliesslich bald seinen 20ten Geburtstag feiern…

    Zur Prozessorarchitektur: der 8086-Mode ist doch AFAIK seit dem Pentium IV weg gefallen, so das letzterer sofort im Protected Mode startet. Oder hab ich da was verpasst? – Kann gut sein, da mich das nicht wirklich interessiert. Ansonsten vermute ich auch, das sich das ARM-Design weiter verbreiten wird. Möglicherweise gibt es auch mal PCs oder Server die komplett auf Harvard-Architektur setzen…

    Das Kompatibilitätsproblem in Sachen Software ist ein weiterer Fall, der dafür sorgt, das sich ein neues System nicht so schnell durchsetzt. Aber selbst dem kann man nachhelfen: So hab ich zu Studienzeiten in den 90ern mal eine Demo gesehen, da war eine Sun oder SGI-Workstation mit einem PC-Emulator ausgestattet, auf dem dann Windows 3.11 gestartet wurde. Der Typ, der den Vortrag hielt, erzählte uns dann, das in dem Emulator noch eine statistische Laufzeitanalyse integriert war, die Softwareentwicklern auch als Profiler bekannt ist. Alle Programmteile, die regelmässig oder mit einer bestimmten Häufigkeit ausgeführt wurden, hat eine weitere Komponente dann in den nativen Code der CPU umgesetzt, die in dem Rechner eingebaut war. Das führte dazu, das die PC-Programme auf der Workstation schneller waren, als auf einem PC, wie er zu der Zeit üblich war. Wenn man nun also eine neue Prozessorarchitektur einführen will, kann man den selben Weg gehen: Einen Emulator einbauen, (am besten ins Betriebssystem) welcher der vorhandenen Software das System vorgaukelt, das sie erwartet und diese durch das System umbauen lassen. Die Softwareentwickler können in der Zwischenzeit auf die neue Architektur umsteigen, und auch den Code anpassen/umschreiben, der nicht portabel ist. Im Falle von portierbarem Code sollte es dann ausreichen, die Quellcodes von den neuen Compilern noch mal übersetzen zu lassen. – Andere, nicht portable Teile müssen dann halt neu geschrieben werden. – Die werden dann mit dem nächsten Update, oder mit neuen Versionen an die Kunden ausgeliefert. Während der Übergangsphase wird man sehr wahrscheinlich eh zweigleisig fahren müssen…

    Soweit mal wieder mein Senf dazu. 😉

    Hans

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.