Meine Wünsche an den nachhaltigen PC

Wenn ich aus meiner Warte aus mir die PC-Industrie ansehe, so hat sich in den letzten 15 bis 30 Jahren nicht viel geändert. Die Grafische Benutzeroberfläche erreichte den Consumermarkt 1985 und Windows XP als grafisches Betriebssystem mit sauberem (nicht kooperativem) Multitasking und abgestuften Rechten kam 2001. (Bevor wieder Schlaumeier kommen: Ja beide Entwicklungen sind älter, aber ich rede vom Massenmarkt). Seitdem ist alles schöner und bunter geworden, gab es neue Busse oder Standards (USB 1.1 → 2.0 → 3.0 → 3.1) aber nichts revolutionär Neues. Trotzdem gibt es noch einiges, was zu verbessern wäre. Hier mal meine Wünsche an den langlebigen und ernsthaft nutzbaren PC:

Datenintegrität:

Seit es Computer gibt, kennt man das Problem der Datenkorruption, das im Digitalen Zeitalter viel problematischer ist als im Analogen. Das Problem ist ja nicht neu: Es geht Information verloren. Wenn bei analogen Medien die Signalstärke abnimmt, oder das Signal-Rauschverhältnis zunimmt, sind Kontraste nicht mehr so stark (bei Fotos), Amplituden geringer oder es gibt Störgeräusche (bei Tonsignalen) aber man kann das Medium noch nutzen. Im Digitalzeitalter ist es problematischer. Bei Code kann ein umgekipptes Bit einen Befehl verändern und so zu Berechnungsfehlern, Ablaufproblemen oder zum Absturz führen. Bei Daten kann der Wert komplett ein anderer sein, vor allem wenn die Daten komprimiert sind, kann ein fehlerhaftes Bit sich auf eine größere Datenmenge auswirken. Schwer vorstellbar, das ein JPG-Bild ein fehlerhaftes Bit auf 100 Bits, wie es manche Mariner 10 Fotos hatten, aushalten würde.

Nun ist das Problem bekannt und schon Rechner der Sechziger Jahren hatten Techniken um Bitfehler zu erkennen. Die grundlegenden Techniken sind seitdem unverändert: Man speichert neben den Daten auch zusätzliche Informationen, die es erlauben einen Bitfehler zu erkennen. Die Methoden sind unterschiedlich. Es können Prüfsummen sein, einfache Verknüpfungen der Bits eines Wortes oder komplexere Methoden die es erlauben die Fehler auch zu korrigieren, wenn diese nicht zu häufig sind.

Bei Arbeitsspeicher gibt es schon lange ECC-RAM. Es setzen heute aber nur Server ein, die normalen Motherboards für Consumergeräte unterstützen ECC-RAM nicht. ECC-RAM kann 1 Bit Fehler in einem Datenwort (heute 64 Bit) erkennen und korrigieren und 2 Bit Fehler erkennen, aber nicht korrigieren. Bei 3 Bit oder mehr Bitfehlern ist das Verhalten abhängig vom Auftreten und dem Bitmuster. Das erstaunliche ist: ECC-RAM war lange Zeit Standard und werde erst in den Neunzigern aufgegeben.

Seit ein paar Jahren haben auch Festplatten das gleiche Problem. Genauer gesagt: die Bitfehlerrate ist gleich hoch geblieben, dich die Kapazität der Festplatten ist soweit angestiegen, dass man beim einmaligen Kopieren des gesamten Inhalts heute statistisch mit einem umgekippten Bit rechnen muss. Festplatten haben heute aber keine Korrektur der Bitfehler, obwohl es doch kein Problem wäre, hinter jeden 512-Byte-Block einen 64 Byte Block mit Korrekturinformationen anzuhängen. Man braucht bei EDAC 1 Bit Korrekturinformationen pro 8 Datenbits. Dann ist die Kapazität eben etwas kleiner so what? Die Industrie setzt auf andere Techniken der Benutzer soll zwei Festplatten einsetzen und den Inhalt spiegeln oder Parity Informationen auf eine weitere Festplatte scheiben (Raid 5). Das Problem ist nur, dass man so nicht feststellen kann, welches Bit verfälscht ist. Die Technologie ist auch dafür gedacht, dass eine komplette Platte ausfallen kann, was ja auch passieren kann. Bei den heutigen Preisen für Festplatten wäre es sicher kein Problem, beide Technologien zu nutzen. Die meisten PC werden heute noch mit 0,5 oder 1 TB Platten ausgeliefert, also einer Kapazität, die seit 2009 existiert. Entsprechend billig sind sie heute geworden.

Diesselbe Technik kann man auch bei den Datenleitungen nehmen, wobei hier einfachere (schnellere) Techniken eingesetzt werden können, denn die Datenübertragung ist zeitkritischer und wenn ein Fehler auftritt, kann man einfach das Datenwort oder einen Block erneut übertragen.

Portabilität:

Das zweite und dritte betrifft nicht den ganzen PC, sondern nur Windows. Es gibt zwei Dinge, die mich ärgern, und die nicht nötig sind. Das eine ist das Windows nicht fähig ist, dauerhaft auf einem beweglichen Medium installiert zu werden. Genauer gesagt: Windows kann das. Seit Windows 8 gibt es Windows als portables System, das man auf einem USB-Stick installieren kann aber nur in der Enterpriseversion für Unternehmen. Bei allen andern Versionen kann man zwar von einem USB-Stick booten, aber nach einigen Wochen ist spätestens Schluss, weil ohne Registrierung dann Windows nicht mehr läuft und wenn man es zu oft registriert auch nicht. Vielleicht ändert sich das ja mit Windows 10, das ja umsonst sein soll und damit entfällt ja auch der Finanzielle Verlust durch Raubkopien der zu dieser Maßnahme führte. Das Problem ist ein ganz einfaches: Man hat ja nicht nur Windows selbst sondern nutzt auch viele Utilities, Anwendungsprogramme. Auf der Platte sind auch die ganzen Dokumente und der Archivierte Emailverkehr und die Kontakte. (Zumindest bei mir, ich speichere nicht in der Cloud) Schön wäre, wenn man das immer nutzen kann ohne alles neu zu installieren, vor allem wenn man beruflich an vielen PCs arbeiten muss. USB 3 Sticks sind auch schnell genug und haben die Kapazität. Zeit also das mal zu liefern. Life-Systeme gibt es bei Linux ja schon lange.

Monitore:

Das zweite ist die Art wie bei Monitoren skaliert wird. Ich sehe nicht besonders gut und habe daher die Skalierung auf 125% eingestellt. Damit sind die meisten Menüs genügend groß (auch hier gibt es Unterschiede sogar innerhalb von Programmfamilien) und Texte und Webseiten kann ich vergrößern. Nun liebäugele ich mit dem Ersetzen der beiden 24 Zoll Monitore durch einen UHD-Fernseher mit 40 oder 50 Zoll Größe und habe mal probeweise auf 150% hochgestellt alles größer, aber enorm unscharf. Es scheint als würde wirklich das Pixelmuster hochskaliert werden anstatt das man z.b. anstatt einer 8 Pt Schrift eine 12 Pt Schrift mit sauberen Fontmuster nimmt. Schlimmer: Ich muss ja nur die Beschriftungen hochskalieren, Symbole und Grafiken müssen nicht skaliert werden. In Windows 7 geht das nicht. Bei Windows XP konnte man noch die Menüschriftart selbst festlegen. Das geht nun nicht mehr.

Beim Monitor finde ich das 16×9 Format eine echte Verschlimmerung. Da ich vor allem lese und schreibe, brauche ich wenn schon dieses Format vorherrscht es im Hochformat. Klar gibt es drehbare Displays (Pivotfunktion) doch meistens sind sie erheblich teuerer und zudem wegen der Blickwinkelabhängigkeit der Displays auch nur gut lesbar, wenn man genau senkrecht draufschaut. Also entweder wird das Drehen (ohne Abhängigkeit vom Blickwinkel) Standard oder ihr denkt mal über quadratische Displays nach – davon hat auch der Anwender was. Bei gleicher Bildschirmfläche und Pixeldichte wäre ein quadratisches Display mit 24 Zoll Diagonale z.B. 18,4 x 18,4 Zoll groß und hätte 1673² Bildpunkte 35% mehr als beim 16:9 Format.

Mal sehen ob ich nochmals 30 Jahre warten muss bis das Standard ist. Aber wahrscheinlich nie. Eher wichtig ist es die Oberfläche dauernd zu überarbeiten.

8 thoughts on “Meine Wünsche an den nachhaltigen PC

  1. Was auch nötig wäre: Windows endlich einmal Windows-kompatibel zu machen. Jede Windows-Version erfordert neue Treiber. Wozu soll das gut sein? (Versuch mal, für eine PCIe-Grafikkarte einen Windows 98-Treiber zu bekommen.) Oder warum kommt Linux mit Windows-Dateisystemen klar, Windows mit Linux-Dateisystemen aber nicht? Es ist schon peinlich, wenn der Marktführer weniger drauf hat als die Bastler. Und das seit Jahrzehnten.

  2. Ja, die Nachhaltigkeit…
    Das gibt es einfach nicht bei Computern, denn bei einem neuen Betriebssystem
    muß auch ein neuer PC her, sonst sind Arbeitsplätze gefährdet!

    Wenn Zuse sich durchgesetzt hätte in der Computerbranche hätten wir jetzt
    Plankalkül 128 auf einem Nixdorf/Siemens PC, der noch immer eine Schnittstelle hätte um (übertrieben) die Daten von Zuse Z1 bis Z64 einzulesen und zu verarbeiten. Und der kleinste PC hat trotz Plankalkül 128 noch immer die Leistungsfähigkeit eines UR-PC, was für 80% aller Arbeiten reicht.
    Mit Erweiterungen können natürlich auch die neuesten Spiele darauf arbeiten…

    Oder es wäre noch schlimmer als jetzt……..

  3. @Elendsoft: Möglicherweise liegt das daran das man auch Veränderungen im Betriebssystem vornimmt und sich dann möglicherweise auch die Schnittstellen ändern (98 seltsamer dos/win32 Kernel, alle seit xp nt-kernel). Dafür wie stark die Änderungen an der Stelle sind ist das noch vergleichsweise sehr kompatibel. Lasst doch alles so wie es ist ist nicht immer eine Option, manchmal muss man auch alte Zöpfe abschneiden. Treiber sind zumindest in monolithischen Betriebssystemen Programme die in den Kernel geladen werden, also quasi Teil des Kernels werden, so und nun erzähl mir mal wie das bei einer neuen Version immer gleich bleiben soll. Ich würde ja Microkernel bevorzugen aber das ist ein anderes Thema.
    Und warum zum Teufel will man einen heutigen Computer (pcie) mit Win98 betreiben? Und komm jetzt nicht mit: „Weils aber schneller ist“. 64Bit? Fehlanzeige, USB3? Muhaha, … selbst Syscalls laufen seit 64Bit schneller (Softwareinterrupts vs. Syscall), abgesehen von sowas wie Sicherheit (Beim Login auf abbrechen klicken, Fat32, ein Dateisystem das von Rechteverwaltung noch nie etwas gehört hat, usw.).
    Windows Dateisysteme sind Pain-in-the-Ass, weiß ich seit ich mal angefangen hatte ein systemübergreifendes Dateisystem (war für einen speziellen Zweck) zu entwickeln, ich wollte Fuse (Filesystem in Userspace) verwenden, MacOSX und Linux können es aber Win, …. .

    Datensicherheit ist ein Thema aber ich denke ein anderes Thema was mich an Computern viel eher nervt ist diese Unfähigkeit zur einfachen Kommunikation und Zusammenarbeit. Mails mit Officedateien rumschicken ist leider immer noch sehr verbreitet und die Verwendung von Usb-Sticks zum Dateiaustausch obwohl man im selben Netzwerk hängt und so weiter. Ein verteiltes sicheres Betriebssystem hätte in der Hinsicht was.

  4. Daß es beim Übergang von DOS-Basierten Windows-Versionen auf die NT-Schiene oder von 32 Bit auf 64 Bit Änderungen geben muß ist mir klar. Aber warum läuft Windows 98SE nicht mit den normalen Windows 98-Treibern? Warum braucht jedes 32Bit-Windows andere Treiber, und jedes 64Bit-Windows auch?
    Warum ich noch Windows 98 laufen lassen will? Einfach um ehrlich gekaufte alte Spiele laufen zu lassen. Ich sehe nicht ein, warum ich die wegschmeißen soll, nur weil ein neues Betriebssystem nicht damit klarkommt. Sicherhheit sollte dabei auch kein Problem sein, wenn Windows 98 ohne Netzwerk installiert wird. Bei nicht netzwerkfähigen Spielen wird das eh nicht gebraucht.

  5. Weshalb es Inkompatibilitäten zwischen Win98 und Win98SE gibt weiß ich ehrlich gesagt auch nicht. Ist es nicht inzwischen einfacher diese Spiele in einem Emulator oder einer VM (dort kannst du dann Win98 installieren) auszuführen? Mehr Leistung braucht man für so alte Spiele und Win98 eh nicht. Zwischenspeichern ist dann auch leicht gemacht (ist ja bei manchen Spielen ein Problem), einfach den Zustand der VM sichern.

  6. @Elendsoft
    Also ich sehe auch keine Notwendigkeit heute Windows 98 einzusetzen. Zum einen ist es nach wie vor ein DOS Aufsatz, kennt nicht Privilegstufen im Kernel, keine Benutzerrechte, also so ziemlich Supergau wenn man damit ins Netz geht und natürlich auch entsprechend unsicher bei Abstürzen von Anwendungsprogrammen. Daneben nutzt es maximal 256 MB Arbeitsspeicher. Es ist so alt, das selbst für die Hardware von virtuellen Maschinen es keine Treiber gibt (läuft z.B. nur mit VGA, erkennt Netzwerkkarte und USB nicht)

    Aber einen Trost habe ich noch: DOS läuft immer noch …

  7. Außerdem gibt es Dosbox, ein DOS-Emulator, mit dem die meisten alten DOS-Spiele problemlos laufen.
    Mit den virtuellen Maschinen ist das auch so ein Problem. Wie du schon sagtes gibt es für Windows 98 keine Treiber. Beim 32Bit XP lassen sich ältere Spiele zwar problemlos installieren. Das Problem beginnt, sobald man das Spiel startet. Ohne Original-CD läuft bei vielen Spielen nichts, und der vorhandene Kopierschutz sorgt dafür, daß diese in der virtuellen Maschine nicht erkannt wird. Ich schätze, dieser Kopierschutz-Wahn richtet weltweit mehr Schaden an als die Bilderstürmerei von Taliban und IS.

  8. Zu den Festplatten: Die haben heute ALLE Fehlerkorrektur-Verfahren der Art, wie Du sie beschreiben hast, eingebaut. Wenn ein Sektor geschrieben wird, wird also zunächst eine Prüfsumme berechnet, dann wird dieser Datensatz (Sektor Prüfsumme) noch um Fehlerkorrektur-Bits ergänzt. Dieser wird auf die Platte geschrieben. Beim Lesen der Daten wird in umgekehrter Reihenfolge vorgegangen: Mit den Fehlerkorrektur-Bits werden behebbare Fehler korrigiert, dann wird die Prüfsumme geprüft, ob der korrigierte Datensatz in sich konsistent ist. Vermutlich ist die Prüfsumme nicht allzu lang, weswegen die Plattenhersteller „nur“ eine Bitfehlerrate von unter 10^-14 garantieren. Die realen Bitfehlerraten liegen aber bei funktioniertenden Festplatten noch deutlich darunter.

    Die genannten Funktionen (also die Berechnung der Prüfbits beim Schreiben und beim Lesen der Daten die Fehlerkorrektur und Prüfung der Prüfbits) sind Teil der Festplatten-Firmware. Das OS und erst recht der Nutzer merkt davon nichts.

    Einige Details findet man hier:
    http://www.seagate.com/de/de/tech-insights/advanced-format-4k-sector-hard-drives-master-ti/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.