Home Computer Schmunzelecke Site Map counter

Bernd Leitenbergers Läster Ecke

Diese Seite wird laufend ergänzt. Die ersten Einträge stammen von 1998 und waren damals aktuell. Es hat also keinen Sinn mir zu schreiben, dass dieser oder jener Misstand inzwischen behoben wurde. Nachdem ich mir mal mich beim Studium einer Computerzeitschrift gefragt habe, warum es denn so selbstverständlich ist, alle naselang neue Rechner wegen neuer Software zu kaufen, die danach trotzdem nicht besser als die alten laufen bin ich zu dem erstaunlichen Schluss gekommen :

Computer werden immer langsamer!

Diese Aussage treffe ich anhand von Erfahrungen von 5 Rechnern mit denen ich längere Zeit gearbeitet habe und durch Gespräche und Arbeiten an anderen Rechnern. Ich sammle allgemein alle Hinweise die darauf hindeuten das Computer weniger leistungsfähig, langsamer, umständlicher zu bedienenden oder sich andere Dinge zum Ungunsten des Benutzers verändert haben. Helfen Sie mit wenn Sie ähnliches beobachtet haben und senden Sie mir eine E-Mail!

Hypothese 1: Computer brauchen immer länger zum Booten!

Bei meinen ersten beiden Rechnern (Ti 99/4a und CPC 464), war der Rechner sofort an, der letzte brauchte allerdings schon 5 Sekunden um CP/M zu booten.. Der erste IBM AT kompatible braucht schon 20 Sekunden, ein 486-133 unter Windows 3.1 30-50 Sekunden und ein AMD K6-350 mit Windows 98SE 2-3 Minuten. Computer werden also rapide langsamer! Bei einem Test der ct 16/2001 wurde zum 20 sten Geburtstag des IBM PC folgendes gemacht: Es ging um einen Geschwindigkeitsvergleich eines IBM PC XT (4.77 MHz) und eines Pentium II mit 550 MHz. Der erste trat mit MS-DOS 3.3 und WordStar 3.4 an, der zweite mit Windows 2000 und Word 97. Man musste den PC Starten, eine Textverarbeitung laden einen kleinen Brief mit 2 Sätzen eintippen und ausdrucken. Raten Sie mal wer gewann? Richtig: Der IBM PC. Obgleich in anderen Benchmarks zirka 1000 mal langsamer als ein Pentium 550 war er diesmal um ein gutes Drittel schneller...

Hypothese 2: INTEL Pentium III Werbung

Pentium III Sie brauchen einen Pentium III um das Internet voll auszuschöpfen. Waahnsinn! Ein 800 MHz Prozessor um 56000 Baud zu verarbeiten. Mal sehen - meine erste Floppy lieferte 1985 250 000 Baud, die konnte ein Z80 8 Bit Prozessor mit 4 MHz ohne Probleme verarbeiten - 200 mal mehr Megahertz = 4 mal weniger Daten...). OK und nun gibt es den Pentium III - mit 72 neuen Befehlen um das letzte aus dem Internet rauszuholen - Für wie blöd hält uns Intel eigentlich? Besteht Internet nur im angucken von 10 Sekunden langen MPEG Files die man sich in einer Stunde heruntergeladen hat? Denn das ist das einzige was die neuen Befehle beschleunigen (Wenn es Software gibt die sie auch benutzen würde....)

Analoges bekam ich beim Kauf meines Modems zu hören: "Tja unter Windows 3.1 können sie die 56 K nicht nutzen, das schafft die alte 16 Bit Architektur nicht..." Wohlgemerkt, der Käufer wollte nicht wissen ob ich einen 16550 Schnittstellenbaustein mit einem 16 Byte Puffer) als FIFO habe oder nicht... Sie tat es natürlich doch, selbst ein 486 er kam mit dieser enorme Datenrate zurecht, die fast ein Tausendstel dessen ist was die Festplatte schafft. Was schließen wir daraus? Wer T-DSL betreiben will ist, beraten seinen Keller nach einem Tandy TRS-80, Apple II oder Commodore PET zu durchwühlen, sonst wird aus der hohen Datenrate nichts..

Hypothese 3: Word taugt nur für Worte!

Es gab einmal... Unter CP/M ein Textverarbeitungsprogramm namens WordStar. Mit diesem zirka 86 K langen Programm konnte man bei 48 K Hauptspeicher Texte bearbeiten die so groß wie der Massenspeicher waren, der längste den ich editierte umfasste 250 K, das waren zirka 100 Seiten.

10 Jahre später ist es unmöglich diese Textmenge mit Word (getestet 2.0-7.0) Ami Pro und leider auch der Windows Nachfolge von Word Star zu bearbeiten, obwohl die längsten Dokumente nicht mal den Hauptspeicher füllen. Als Anwender wird man mit rätselhaften Programmabstürzen oder wilden Umformatierungen bis hin zu Fehlermeldungen "Nicht genug Speicher zum Bearbeiten" - bei 56 MB Hauptspeicher und einem 2 MB langen Dokument - geplagt. Warum? Weil Features, tanzende Klammern oder ähnliche Gimmicks wichtiger sind als der Zweck einer Textverarbeitung - auch lange Dokumente die eventuell sogar so etwas exotisches wie Grafiken enthalten - bearbeiten zu können.

Hypothese 4: Programme werden immer Langsamer

Eigentlich ist Hypothese hier schon ein falscher Ausdruck - die Programme werden immer langsamer! Klar sonst müsste man sich ja keine neue Hardware anschaffen. Aber ich kann es auch an einem konkreten Beispiel belegen: Meinem Modem lag der Internet Explorer 2.1 bei. Ich habe damit diese Web Pages von der Festplatte aus betrachtet - es ging ganz gut, auch wenn er für die kleinen GIF's wesentlich länger als Opera brauchte um sie anzuzeigen. Er hat aber Probleme mit dem TAG's und so habe ich den 4.01 installiert. Welche Veränderungen! Eine einfache Seite braucht bei einem Scroll Sekunden für den Neuaufbau (Nur des Textes, 486-133 mit 56 MByte RAM...) Also absolut unbrauchbar. Komischerweise hat der kleine Browser Opera in der neuesten Version weder Probleme mit der Seite noch ist er so langsam (Er ist auch schneller als Netscape)..

Prinzipiell muss natürlich die Featuritis ihre Opfer verlangen. Das dumme ist nur: Bei dem was man sich heute als Office kauft braucht der durchschnittliche Anwender nur einen Bruchteil der Befehle. Ich kenne Personen die seit 7 Jahren mit WinWord 2.0 ihre Korrespondenz, Gutachten und Serienbriefe erledigen und nicht mehr brauchen.

Hypothese 5: Programmierer werden immer Dümmer!

Früher wurde in Assembler programmiert, dann in Pascal und C und heute hat man den Verdacht in BASIC, Logo und Java. Manchmal kommt es mir wirklich so vor als müssten Programme langsamer werden. Ich lese in einem ct Testbericht, das Linux auf Handhelds unzumutbar langsam ist. Schaut man sich dann die Tabelle mit den technischen Daten an, so findet man Prozessoren mit 75-160 MHz und 8-16 MB RAM. Diese "Handhelds" schlagen also hinsichtlich Rechenleistung jeden 486 und auch einige Pentiums. Sie haben nicht 10 Peripheriegeräte zu unterstützen und nur ein kleines Display, keine 3D beschleunigte Grafik. Trotzdem ist dort anscheinend Linux lahmer als auf meinem 486 bei dem es schon recht flott ging. Das gilt nicht nur für Linux sondern auch für andere Programme - doch warum dies so ist wird wohl immer ein Geheimnis bleiben....

Auch in der Raumfahrt: Alles wird langsamer!

Man glaubte es kaum: Auch Raumsonden werden immer langsamer. Hier ist es sogar noch schlimmer als bei Computern. Hier Ein Beispiel: Datenübertragungsrate von der Kamera auf den Massenspeicher:

Viking 1+2 (1975): 4480 KBit/sec

Galileo (1989): 787.6 KBit/sec

Cassini (1997): 365 KBit/sec

In 20 Jahren hat sich die Datenübertragungsrate auf ein Zehntel reduziert! Die Senderate zur Erde (trotz 4 fach höherer Entfernung bei Cassini) übrigens von 16 auf 166 KBit/sec gesteigert! Irgendwo ist doch da der Wurm drin...

Tatsache: Intel inside - Idiot outside!

Intel war in seiner ganzen Firmengeschichte nur einmal Markführer: Mit dem 8080 Prozessor. Doch schon der wurde bald durch den kompatiblen Z80 verdrängt der anstatt 56 über 600 Befehle hatte, billiger war und zudem noch zwei Intel Chips integriert hatte.

Seitdem hat sich nichts geändert. Intel Chips sind im Vergleich zu anderen Prozessoren langsam, rückständig oder beides: 8086 gegen 68000, Pentium gegen Alpha oder Power PC. Die Vergleiche gehen immer zu Ungunsten von Intel aus. Doch selbst auf dem Markt der Intel kompatiblen Rechner gilt: Ein Klone ist entweder billiger oder schneller oder beides, wie z.B. der aktuelle AMD Athlon Prozessor. Nur in der High End Klasse ist Intel noch einsam. Doch wer als Privatkunde zahlt schon für den schnellsten Prozessor mit × MHz soviel wie für einen kompletten No-Name PC mit einem x-100 MHz AMD?

Tatsache: Programme werden immer instabiler!

Ich habe 7 Jahre mit 8 Bit Programmen gearbeitet. Die Abstürze bei Anwendungsprogrammen kann ich an meinen zwei Händen abzählen. Unter 16 Bit Windows sind allgemeine Schutzverletzungen ziemlich häufig. Und Windows 9x muss man regelmäßig neuinstallieren um nicht von Fehlern überflutet zu werden. Das nennt man MS Fortschritt (Multiple Sklerose, eine Krankheit die zu immer stärkerer Degeneration der Muskulatur führt.).

Noch interessanter sind aber die Fehlermeldungen. Unter 8 Bit waren sie kurz und sagten aus was der Fehler war: "BAD FILE" - Datei kann nicht gelesen werden, weil die Disk einen defekten Sektor hat. Unter 16 Bit Windows bekommt man eine "allgemeine Schutzverletzung bei xxxx:yyyy" was nichts mehr über den Fehler aussagt, und bei Windows 32 bekommt man wieder Fehlermeldungen, nur haben die überhaupt nichts mit den Fehlern zu tun!

Schuld daran ist das man Programme nach Marketing Argumenten entwickelt. Die neue Version muss nicht fehlertoleranter, intuitiver oder einfach nur stabiler sein, nein sie muss 100 neue Funktionen beinhalten, für die man so lange braucht um sie zu beherrschen, das dann schon wieder die nächste Version herauskommt. Das es nicht an der Größe alleine liegt zeigt Linux: Obwohl bei Linux zig Programmierer an dem System und Programmen mitgearbeitet haben und die Installation deutlich größer als Windows 9x ist läuft das System stabil.

Merksatz: Trau keinem unter 3 aus Redmond!

Bill Gates Es ist schon komisch: Bei vielen MS Produkten ist 3 die magische Zahl, ab der ein Produkt etwas taugt. Beispiele? MS-DOS, Windows, Direct X, Excel, Internet Explorer, Word for DOS...

Noch wichtiger: Bei WinWord wurde die Nummer 3 glatt übersprungen - in der Folge sind die Probleme bei langen Dokumenten und OLE Objekten auch bei der 2000.sten Version geblieben. Weil man das in Redmond inzwischen erkannt hat gibt es ab sofort keine Produkte mehr mit Versionsnummern unter 3. Damit eine gewisse Sicherheitsspanne da ist fangen nun alle Versionen mit 97,98,2000 an... Sicher ist eines: Microsoft hat das Kunststück fertig gebracht die Versionsnummer, die früher ein guter Indikator für die Verbesserung eines Produktes war (neue Ziffer vor dem Punkt: Grundlegende Änderungen, erste Ziffer danach: Kleine Änderungen, zweite Ziffer oder Buchstabe: Bugfixes) zur Makulatur zu machen! Übrigens, wer es noch nicht kapiert hat: der Firmensitz von M$ ist Redmond.

Eine wahre Geschichte: Wie Microsoft zu MS-DOS kam

IBM wollte 1980 einen PC bauen. Von MS wollten sie Betriebssystem und BASIC kaufen, nur hatte MS kein Betriebssystem. Das führende Betriebssystem war damals CP/M von Digital Research. Es war klein, effektiv und schnell. Oder wie ein Fachmann sagte "Ein Auto das mit Wasser fährt". Der Firmenchef Gary Kildall war damals aber im Urlaub und seine Frau wollte das Stillschweigeabkommen mit IBM nicht unterschreiben So platzte der Deal. MS kaufte von einer Firma Seattle Computers für 50,000 $ die Rechte an einem rudimentären CP/M Klone, das damals noch QDOS hieß (Quick and Dirty Operation System, die einzige Betriebssystembezeichnung die wirklich stimmte) und verkaufte das als PC-DOS für 186.000 $ weiter an IBM. Pikanterweise kaufte M$ QDOS erst zwei Tage nach dem Vertragsabschluss mit IBM, so war schon mal ein Gewinn von 136.000 $ sicher.... Für 50,000 $ bekam MS also die Lizenz zum Gelddrucken mit einem Betriebssystem das erst 1983 mit der Version 2.11 stabil lief und erst mit Version 3.0 alle wesentlichen Dinge unterstützt die man auch heute in Mies Dos findet. Die komplette PC Geschichte ist hier zu finden

Kennen Sie das längste Adventure der Welt?

Es heißt Windows 95 und obwohl es noch nicht gelöst wurde gibt es mit Windows 98/Me schon einen Nachfolger. Was, dass ist kein Adventure sondern ein Betriebssystem? Aber ich bitte Sie !

Speicher wird immer knapper

Es gab mal eine Zeit da waren Computerhersteller noch ehrlich, da hatten 64 Kilobyte noch 65536 Bytes, da gingen auf eine 180 K Diskette noch 180 Kilobytes, ja wenn man programmieren konnte bekam man sogar 192 oder 214 KB drauf.

Doch diese Zeiten sind vorbei, obgleich heute Computer 1000 mal leistungsfähiger sind wird der Konsument bei allen Ecken und Enden beschissen. Das fing Mitte der achtziger Jahre an als Festplatten so langsam bezahlbar wurden und in PCs Einzug hielten. Festplattengrößen wurden merkwürdigerweise in Millionen Bytes angegeben und nicht Megabytes (2^20 = 1048576 Bytes). Das bedeutete einen Verlust von 4,8 %. Eine 21 MB Platte hatte also nur 20 MB. Bei dem Übergang zu Gigabytes wird der Schwund noch größer: 7,3 %. Eine 14 GB Platte hat also netto nur 13 GB. Wenn wir zirka 2005-6 die ersten Terabyte Platten kaufen können werden diese wahrscheinlich sogar 10 % weniger Kapazität als angegeben haben! (1 Terabyte = 1.099.511.627.776 Bytes)

Aber diese Schwindelei sind noch harmlos gegenüber dem was danach kam. Danach begannen Hersteller von Pentium Clones als Geschwindigkeit nicht mehr die ihres Prozessors anzugeben sondern die, welche sie meinten hätte er, wenn er ein Pentium wäre. Da wurde aus einem 233 MHz Prozessor schon mal ein 300 MHz Modell. Doch ob dieser wirklich so schnell wie ein 300 MHz Pentium war? Sie erraten es schon: Nur bei ganz bestimmten Benchmarks, meistens aber langsamer...

Danach wurden die Kamerahersteller erfinderisch. Die Pixels orientieren sich nicht an dem was beim Anwender rauskommt, sondern was der Chip an Pixel hat - inklusiv nicht nutzbarer Fläche. Da werden aus 2048 × 1536 Punkten schon mal 3.3 Megapixels und nicht 3 MB wie es korrekt wäre. Noch schlimmer: Die Farbinformation stammt aus einer Maske über dem, Chip. 3-4 Pixels ergeben zusammen einen Bildpunkt. So wirkt das Bild effektiv unschärfer und hat vielleicht 2 Millionen nutzbare Schärfeinformationen - Einen Betrug um über 50 %!

Da wundert man sich nicht mehr wenn man von dem Speicher auf dem Motherboard nicht mehr viel vorfindet. Billigboards mit integrierten Grafikchipsatz und Modem / Sound knapsen sich mal 8-16 MB vom Speicher, die Treiber belegen unter Windows noch mal ein paar MB und wenn Sie aufrüsten wollen weil die Grafik ätzend langsam ist, stellen sie fest das Sie keinen Steckplatz haben. Kurzum: Beschiss wohin das Auge blickt.

Windows Arithmetik

Was macht 39+64 und 48.5+128? Nein nicht 103 und 176.5 sondern 79.5 und 134.9. Was ich damit meine? Nun das ist der freie Speicher nach dem Booten von Windows 98 SE, einmal bei einem Rechner mit 64 MB, der auf 128 MB aufgerüstet wurde und einmal bei einem Rechner mit 128 MB der auf 256 MB aufgerüstet wurde. Offensichtlich bekommt Windows nie den Hals voll und klemmt sich pro MB Speichererweiterung ein Drittel ab, denn mit einem guten Regressionskoeffizenten von 0.9998 entspricht dies einer Gerade mit der Steigung 0.6657. Wer das nicht mag sollte unter Linux seinen Rechner betreiben, da hat man nach dem Booten von 256 MB noch glatte 210 MB übrig!

Erinnern Sie sich noch an DOS? Da hat man von 1024 K adressierbaren Speicher mal 384 K für Karten und BIOS reserviert, denn das war ja so satt viel. Später wurde Bill Gates sein Spruch "640 K sind genug für Jedermann" gerne um die Ohren geworfen. Es gab zum Ende der DOS Zeit trickreiche Programme die bei VGA Karten noch die ersten 64 K des Erweiterungsspeichers (In denen der Speicher für EGA und CGA Karten lag, den aber VGA nicht nutzte) DOS zuschlugen Man sollte meinen, Bill Gates hat was gelernt, doch Pustekuchen - Im Gegensatz wozu sparen, wenn man in die vollen langen kann. Als man Windows NT entwickelte hat man sich von dem gigantischen Speicher von 4 Gigabyte mal gleich die oberen 2 Gigabyte für das Betriebssystem reserviert. Nun werden 4 GByte bezahlbar. Doch würde ich nicht mehr als 2 in meinen Rechner einbauen - außer ich will Windows was gutes tun, denn egal wie viele Anwendungsprogramme sie haben, wie groß ihre Daten sind - mehr als 2 GB stehen ihnen nicht zur Verfügung. Mit einem Switch beim Booten auch kann man es auch auf 3 GB Anwendungsspeicher einstellen, trotzdem. Wie schön waren die Zeiten als CP/M sich in den obersten Teil des Speichers verkrochen hat und wenn man mehr Speicher hatte dann verschob es sich noch mehr nach oben, so das jedes Kilobyte mehr voll bei der Anwendung ankam.

Was Microsoft recht ist, ist Intel billig. Also hat man sich für den PCI Controller den Bereich von 3.5-4 GB reserviert, wenn ihn nicht gerade Windows nutzt. Ein halbes Gigabyte Speicher nur für einen Motherboard Chip!

Windows - wo ist meine Rechenpower?

"Gut das wir verglichen haben - ich bin doch nicht blöd!". Der Media Markt Spruch gilt auch für Betriebssysteme. Manchmal bin auch ich noch zu überraschen und das ist nicht leicht. Ich habe einen 350 MHz AMD K6-2. Da sollte doch Internet mit 44 KBaud immer gleich schnell sein, schließlich ist die Datenrate hier sicher nicht der limitierende Faktor. Aber warum ist der Netscape Navigator unter Linux viel schneller beim Aufbauen der Seiten? Bitte Billy Gates erklär mir das mal. Wie schaffen es einige Tausend Hobbyisten die rund um die Welt verstreut leben ein schnelleres und stabileres Betriebssystem hinzubekommen als Du - Visionär, der Du doch die Zukunft schon auf den Fingerkuppen hast... Kann es sein das Du heimlich Kinderarbeit eingeführt hast und Windows 98/2000 in LOGO programmiert wird? (Das würde sowohl die Geschwindigkeit wie auch das sehr seltsame Verhalten erklären....) Oder gibt es in jeder Systemroutine eine Zählschleife die bis zu deinem jährlichen Verdienst hochzählt bevor sie weitermacht?

Es ist doch komisch: nicht nur jede Windows Version wird immer langsamer, was man auch an den steigenden Systemansprüchen sieht, nein auch innerhalb einer Version gibt es die "halbe Tacho" Regel: Tests was von der Prozessorperformance übrig bleibt zeigen in Computerzeitschriften, das dies bei den kritischsten Anwendungen (Spiele) bestenfalls 50 % sind. Oder anders ausgedrückt: Sie ersetzen einen 500 MHz durch einen 1000 MHz Prozessor, ihre Anwendungen laufen dann aber nicht 100 % sondern nur 50 % schneller.

Wie Windows 95/98 stabil läuft

 Nun mal was konstruktives in dieser Rubrik. Nein Windows ist wirklich nicht von vorneherein schlecht und natürlich kann Microsoft nichts für die Programmierfehler anderer Leute. Windows kann sehr stabil arbeiten wenn man sich an folgende Dinge hält: Wenn man dies alles beherzigt dann stürzt Windows 98 wegen eines Bugs nur noch nach 49,7 Tagen Dauerbetrieb ab - das allerdings zuverlässig! (Nach MS Knowledge Base).

Windows ME - Das Jahrtausend Produkt

Nun mal ganz ernst ohne satirischen Unterton: Lieber Bill Gates, das war doch der dämlichste Name den die neueste Windows Version bekommen konnte. Was ist Windows ME (Millennium Edition)? Ein etwas modernisiertes Windows 98, also im Prinzip eine Familienpflege der Windows 95 Linie. Nicht neues und berauschendes ist drin, weder die lange erhoffte Stabilität noch Geschwindigkeit noch einfache Bedienung.

Warum also die Bezeichnung "Jahrtausend Auflage"? Wie willst du das noch toppen? Und vor allem fordert es nicht zu Vergleichen mit den anderen Erfindungen und Entdeckungen des letzten Jahrtausends heraus? Wie war Einstein bescheiden als er die Verbindung von Raum, Zeit und Gravitation erkannte und es einfach "Relativitätstheorie" nannte nicht "Jahrtausendtheorie". Warum sagte Armstrong beim ersten Schritt auf dem Mond nicht "Das ist der erste Schritt in ein neues Jahrtausend" - wo er vielleicht mehr recht hätte als Du mit deinem "Millennium" Windows. Nehmen wir nur die Erfindungen und Entdeckungen des letzten Jahrhunderts so wirkt dein Windows ME doch mehr wie ein stümperhaftes, unfertiges Produkt.

Aber vielleicht habe ich es auch nicht richtig verstanden, vielleicht steht Millennium nur für die Anzahl der Millionen die Du damit verdienst, für die 1000 Millionen Arbeitsstunden die durch Windows ME verloren gehen....

Computer vergessen alles!

Nein, damit ist nicht gemeint, das das RAM nach dem Ausschalten gelöscht ist, auch nicht die ständige Bedrohung der Festplatte durch Viren, Programmabstürze, Neuinstallationen oder die ENTF Taste, nein viel schlimmer: Computer sind das absolut ungeeignetste Medium um Informationen zu speichern! Bevor sie nun aufheulen und mir erzählen was sie alles auf ihrer Festplatte gespeichert hat, wie viele CD-ROMs Sie gebrannt haben, lassen sie mich dies ausführen. Es geht um Informationen die Bestand haben sollten. Also nicht ihre Grußkarte an Onkel Heinz, sondern vielleicht ihre Diplomarbeit, die Steuererklärung oder ihr erster Beststeller.

Lassen wir mal die technische Haltbarkeit außen vor (wie lange halten Disketten, CD-ROMs, Festplatten) und widmen wir uns nur mal dem technischen Problem. Ich schreibe diesen Aufsatz im Jahre 2000. Zehn Jahre früher 1990 waren als Speichermedien 5.25" Disketten und 50-80 MB Festplatten in MFM Technologie üblich. Ich habe heute keine Chance diese in einem modernen Rechner zu lesen. Selbst wenn ich für die Disketten ein altes 5.25" Laufwerk einbaue (sofern Platz genug) bin ich nicht viel weiter. Damals wurden andere Programme benutzt als heute. Manches moderne Programm hat vielleicht einen Filter für meine Daten, aber wahrscheinlich ist dies nicht, denn je älter das Datenformat desto weniger nehmen die Hersteller Rücksicht darauf. Besonders bei MS-Office ist es auffällig, das sie keine Filter für nicht MS Programme haben, und oft nicht einmal für alte MS Programme.

Nun könnte ich auf die Idee kommen mein Programm auch zu archivieren und dann zu starten. Doch ob dies gelingt ist nicht gesagt, und spätestens wenn bei einer der nächsten Windows Versionen das 16 Bit Modell (DOS/ Win 3.1) wegfällt ist für alle Programme vor Windows 95 Schluss.

Kurzum: Es gibt Probleme bei nur 10 Jahre alten Daten. Dabei sind 10 Jahre eine kurze Zeit (so lange müssen Sie Unterlagen fürs Finanzamt aufbewahren...) und ich habe bewusst eine Plattform gewählt die sich weiterentwickelt hat - den PC. Bei einem 10 Jahre alten Amiga oder Atari sähe die Sache schon schwieriger aus. Geschweige denn noch anderen Computern. Was machen Sie mit den 3" Disketten eines Amstrad CPCs oder den früher benutzten Kassetten? Was ist mit den 8" Floppies die bis 1980 die Standardgröße bei Datenträgern waren und den ersten 5.25" Festplatten in einfacher Bauhöhe (Die bekommen sie in kein Gehäuse mehr rein)?

Heute sind seit 2-3 Jahren CD-ROMs der Standard. Obgleich es CDs seit 1983 gibt, kann man als Privatanwender Brenner erst seit kurzer Zeit bezahlen, und schon ist abzusehen, das in einigen Jahren DVDs die CD-ROM ablösen wird. Kurzum: Die Situation wird eher kritischer denn besser. Vielleicht ist auch das der Grund warum noch nie so viel gedruckt wurde, wie seit es das papierlose Büro dank des Computers gibt. Man kann zwar Papier verlegen, zerknittern und Eselsohren rein machen, aber es hat eine Haltbarkeit von einigen Jahrzehnten bis Jahrhunderten. Und man kann nicht durch ein paar Tastendrücke ganze Regale in Luft auflösen....

Die Situation ist übrigens auch - mal ganz ohne satirischen Unterton - in anderen Bereichen ein Problem. Anfang der neunziger Jahre stellte die NASA fest das die Magnetbänder welche die Daten der Viking Sonden von 1976-1978 enthielten zu 10-20 % nicht mehr lesbar waren - Die Daten waren unwiederbringlich verloren. Wenige Jahre später waren die Original-Magnetbänder der Voyagersonden nutzlos - es gab keine Abspielgeräte mehr dafür. Man kann nur hoffen, das die NASA vorher die Daten gesichert hat....

Digitalkameras - Oder wie man aus einer guten Idee ein Spielzeug macht.

Eigentlich sind Digitalkameras von der Idee her toll: Keine ewige Warterei ob die Fotos was geworden sind, wenn nicht, dann einfach ein neues machen, sofort im Computer verfügbar z.B. für die Website. Doch aus dieser tollen Technik haben die Konstrukteure ein Spielzeug gemacht und der Handel hat die Möglichkeiten nicht erkannt. Wenn Sie heute im Fotoladen 500 Mark ausgeben bekommen sie eine Autofokuskamera mit Zoomobjektiv für Weitwinkel bis nahes Tele. Bei 1000 Mark eine Spiegelreflex mit Wechselobjektiven und Kontrolle der Bildschirme und des Ausschnitts. Für 2000 Mark bekommen Sie eine 3 Megapixel Kamera, mit den optischen Daten eines 100 Mark Fotoapparats: Kein Zoom, kein wechselnde Brennweite, stattdessen ein unscharfes und leuchtschwaches LC Display, das ihre Batterie leer nuckelt. Wenn man sowieso am Computer nachbearbeitet oder ausdruckt, dann hätte man besser drauf verzichtet und das Geld in eine vernünftige Optik gestellt.

Als nächstes der Speicherplatzhohn: Eine 3 Megapixel Kamera kostet 2000 Mark, 64 MB Flash Memory etwa 200 Mark, trotzdem reicht bei vielen Kameras der Speicher nicht und alle komprimieren die Bilder im JPEG Format: Warum, gebe ich viel Geld für eine Kamera aus um dann eine verlustbehaftete Kompression zu nehmen? Würde man die Daten im internen RAW Format (3 Megapixel sind nicht 9 MB sondern nur 3, da jedes Pixel nur die Farbinformationen eines Spektralbereiches hat) ablegen und mit TIFF komprimieren, so würde ein 64 MB Riegel für 30 Bilder reichen, also etwa so viel wie auch auf einen Film hinauf gehen. Es reicht also ein normaler 64 MB Speicher, nur die meisten sparen und kommen mit 16 oder 32 MB und komprimieren lieber mit dem verlustbehafteten JPEG Algorithmus.

Das beste ist aber noch das man das dann alles selbst ausdrucken kann: Immer teurer als ein Foto und bei den verbreiteten Tintenstrahldruckern auch Wasser und Lichtempfindlich. Noch hat der Handel nicht die Chance erkannt die Speicherriegel auszulesen und dann wie andere Fotos zu entwickeln - zu moderaten Preisen. Solange das so ist bleiben Digitalkameras eben das 2000 Mark Spielzeug....

Appendix 2004:

Ich habe den Absatz über Digitalkameras 2000 geschrieben und inzwischen, so scheint es ist vieles besser geworden. Man kann Daten wenn man will im RAW Format abholen, es gibt die Möglichkeit Bilder über den Fotoladen als Prints zu bekommen. Doch ist damit alles besser? Nein! Denn im Laufe der Zeit wurde zuerst der CCD Sensor kleiner (von 21 mm Diagonale auf 14 mm geschrumpft), dann durch den preiswerteren CMOS Sensor ersetzt und nun steigen die Pixelzahlen an: 4-5 MPixel sind 2004 der Standard und bald werden es noch mehr sein.

Warum dies so wichtig ist? Nun der bildaufnehmende Chip bleibt gleich groß, also sinkt pro Pixel die Fläche. Eine 5 MPixel Kamera bekommt pro Pixel 40 Prozent weniger Licht.

Damit steigt aber auch das Eigenrauschen an. Tests von ct zeigen, dass 5 MPixel Kameras der Konsumerklasse schon bei ISO 100 Einstellung stark rauschen. Mehr noch: Da die Optik dieselbe wie bei 3 MPixel Kameras zu sein scheint (aber bei 5 MPixel natürlich besser sein muss, weil die Pixels kleiner) stagniert bei vielen Produkten die Auflösung auf 3-4 MPixel Niveau. Der Ausweg? Größere, aber dann auch teurere Chips verwenden. Profi Equipment hat zwar 8-9 MPixel, aber dafür verwenden sie einen Chip vom Kleinbild Format (was es auch erlaubt normale Fotoobjektive zu verwenden). Pro Pixel bedeutet dies 14 mal mehr Licht als bei einer Konsumer Kamera - und damit auch bei ISO 800-1000 noch rauschfreie Bilder. Auch die Kameras würden davon profitieren. Sie sind zwar recht klein, aber oft schon fummelig klein. Würde man die Chipgröße von 1/1.8" Diagonale (14.1 mm) auf 1" (25.4 mm) anheben, so wären die Bilder bis 200 ISO ganz sicher und eventuell bis 400 ISO rauschfrei, die Kamera etwas größer, aber immer noch kompakter als eine Kleinbildkamera mit 43.2 mm (1.7") Diagonale. Der Vorteil wäre auch ein etwas größeres Gehäuse für das meist doch etwas kleine LCD Display und etwas größere Tasten. Nur wäre die Kamera durch den größeren Chip etwas teurer.

Ein weiteres Ärgernis ist das Format. Alle Digitalkameras benutzen ein Seitenverhältnis von 4:3. Dies stammt noch aus einer Zeit als die Bilder vorwiegend noch auf dem Monitor darstellt wurden. (Die ersten Kameras hatten 320 x 240, 480 x 360 und 640 x 480 Pixel). Doch spätestens ab der 2 MPixel Generation werden die Fotos irgendwann einmal entwickelt und auf Fotopapier wiedergegeben. Alle Labore sind aber (noch) auf das klassische Fotoformat von 36 x 24 mm, also einem Seitenverhältnis von 3:2 eingestellt. Dies hat auch einen breiteren Blickwinkel, was man vor allem bei Weitwinkelaufnahmen schätzt. Warum passt man nicht die Chipgröße denen von Fotos an ? Es ist doch egal ob eine 5 MP Kamera 2640 x 1760 oder 2750 x 1820 Pixel hat.

Wozu Industriestandards?

Digitalkameras zeigen auch was heraus kommt, wenn man keinen Standard hat. Ein Standard mag sich nur langsam weiterentwickeln und nur von den Interessen eines Herstellers geprägt sein, wie z.B. viele Standards im PC Bereich (PCI, AGP, USB - alle stammen von Intel). Aber man muss sich keine Sorgen um geeignete Geräte machen. In der Unterhaltungselektronik fehlt ein marktbeherrschender Konzern wie Intel und daher gibt es keine Standards: Für Digitalkameras gibt es 4 verschiedene Speicherkartentypen: Compact Flash (CF), Secure Digital (SD), Multimedia (MM) und von Sony den Memorystick. Dazu kommen noch eine Reihe von inkompatiblen Unterformaten. Besonders viele von Sony, die bei allem eine Extrawurst braten müssen.

Das wäre ja nicht so schlimm, wenn es nur die Digitalkameras beträfe. Doch die Speicherkarten braucht man auch für Organizer und MP3 Player. Entweder legt man sich also auf ein Format fest oder man muss mehrere Speicherkarten verschiedener Typen kaufen. Dies ist nur das schlimmste Beispiel. Es gibt auch keinen Standard bei beschreibbaren DVD (DVD-R, DVD+R, DVD-RAM) und für die nächste Generation von HD-DVD gibt es auch schon 3 Kandidaten für einen Standard. Lernt die Unterhaltungsindustrie eigentlich nie dazu? Hatte man dies denn nicht schon Ende der siebziger Jahren mit den Videoformaten VHS, Betamax und Video 2000? So kurbelt man doch nicht die Nachfrage an, sondern schreckt nur die Verbraucher ab!

PC Industrie bestätigt: PC sind mangelhaft verarbeitet!

Ab dem 1.1.2002 gilt für alle Produkte eine neue Gewährleistungsfrist von 2 Jahren anstatt 6 Monaten. Deswegen müssen die Preise erhöht werden: Ein Sprecher des BITKOM (Bundesverband Informationswirtschaft, Telekommunikation und neue Medien) sagte in einem ct Interview: "Schon bei einem Tintenstrahldrucker bedeutet eine Gewährleistungsfrist von 2 Jahren, das sich der Preis um ein Drittel erhöht, bei einem PC steigt der Preis um 10, bei Scannern sogar um 50 Prozent". Diese Preissteigerungen werden damit begründet, das man nun eben 3 mal mehr Garantiefälle hätte. Haben wir das nicht schon immer gewusst? Kennt nicht jeder aus eigener Erfahrung Geräte die bald defekt waren? Warum hält eine Waschmaschine 10 Jahre ein PC denn man weitaus weniger lang benutzt, nicht mal 2? Bedenkt man das die Geräte ja immer preiswerter werden, so kann man leicht aus den Zahlen des BITKOM ableiten, da ein großer Prozentsatz der PCs innerhalb der kurzen Zeit von nur 2 Jahren kaputt gehen. Vielleicht ist das auch der Grund warum Intel und Co uns dazu bringen wollen anstatt alle 3 Jahre wie im Jahre 2000 nun schon alle 2 Jahre einen PC zu kaufen!

Ernsthaft: Installieren Sie unter Windows 98/ME nicht mehr als 512 MB RAM

Als ich diese Seite 1998 zum ersten mal raus kam, wollte ich eine satirische Abrechnung mit meinem Computerärger machen. Doch mittlerweile werde ich von Windows rechts wiederholt. Im Ernst es gibt Dinge - die halte selbst ich für einen gut gemachten Witz. Da fragt in der ct 16/2001 ein Nutzer in der Hotline warum bei ihm nach dem Aufrüsten auf 768 MB seine DOS Programme nicht mehr laufen. Antwort der ct Redaktion nach Rückfrage bei Microsoft: Der Cachetreiber adressiert nur 800 MB. Hat der Rechner mehr (Zu den 768 MB kommt noch der AGP Speicher) so gibt es keine Adressen mehr für das Öffnen von DOS Boxen. Bei manchen Rechnern booten Windows 9x Versionen überhaupt nicht mehr wenn es mehr als 768 MB sind. Microsoft leistet keinen Support bei mehr als 512 MB RAM für Windows 9x.

Hat man nichts aus der 640 KB Grenze von MS-DOS gelernt? Seit dem 386 er adressiert ein Intel Chip 4 GB! Kann ich die Begrenzung noch bei Windows 95 verstehen, das erschien als Rechner im Durchschnitt 16 MB RAM hatten, so ist es bei Windows ME völlig unverständlich. Das erschien zu einem Zeitpunkt als neue Rechner über 128-256 MB verfügten und ist bis jetzt (August 2001) noch der Standard. Nun kosten aber 768 MB Speicher heute keine 300 DM mehr. Kann es sein das man bei MS die Benutzer für blöd hält oder meint wer sich Speicher kaufen kann hat auch Geld für Windows 2000 übrig?

Zensur à la Microsoft

Machen Sie sich die Mühe den Quelltext dieser Seite anzuschauen. Sie wurde nicht mit MS Frontpage erstellt. Warum ich das betone? Nein es geht nicht um die Unsitte von Frontpage in die Seiten Tags einzubauen die bewirken, dass man sie nur noch mit dem IE anschauen kann. (Einige verblödete Benutzer die das nicht merken tarnen ihre Dummheit mit dem Hinweis "Best viewed with Internet Explorer" auf ihren Seiten).

Nein es geht um Zensur. Wenn Sie eine neue Ausgabe von MS Frontpage kaufen oder mit ihrem Betriebssystem installiert haben dann verpflichten sie sich im Kleingedrucktem nichts negatives über MS oder ihre Produkte auf ihren Webseiten zu schreiben. So weit ist es nun schon gekommen: Der Hersteller einer Software schreibt mir vor was ich damit anstellen kann. Das ist Zensur und es zeigt das diese Firma inzwischen meint über dem Recht zu stehen nach Zwangsregistrierung, Zwangs E-Mail Konto oder Verwandte Links nur noch auf MS Seiten wird sicher als nächstes noch was neues kommen - Wie wäre es wenn man nur MS zertifizierte Programme noch installieren kann? Oder nur noch über MSN ins Internet kann und keinen anderen Provider mehr einrichten? Dieses Thema ist gut weiter nutzbar wie sieht es aus wenn CD Brenner nur noch Medien eines bestimmten Herstellers beschreiben. Wenn bei Druckern nachdem sie nur noch mit Originalpatronen funktionieren auch nur noch Original Papier bedruckt wird.

Open-Source - Alles besser?

Nun jedem, der mit Windows sich ärgert wird immer geraten auf Linux umsteigen. Schließlich ist Linux doch das Paradebeispiel das offene Software besser als ein kommerzielle Software ist oder? Nein nicht wirklich. Natürlich können Fehler besser erkannt werden wenn mehr sich einer Software annehmen und aus verschiedenen Blickwinkeln anschauen. Es gibt aber auch Probleme die spezifisch für Open-Source sind. Zum einen programmieren Programmierer nur das was ihnen einfällt nicht das was vielleicht ein Benutzer haben will. Was dann herauskommt sind solche Open-Source Produkte wie UNIX und C. Endlose Mengen von Kommandos in zig Dienstprogrammen ohne jeden Dialog bei UNIX und eine krankhafte Sprache die profilierungssüchtige Programmierer erfunden haben um sich vom Rest der Welt abzusetzen der die Meinung vertrat Programme müssten verständlich sein. Was passiert nun? Nun wer als Normalsterblicher mit dem in Berührung kommt oder auch als Programmierer der eine saubere Sprache wie Pascal oder ADA kennen gelernt hat der bleibt von diesen Systemen weg. Wer genauso neurotisch ist und meint er wäre was besseres wenn er alles umständlich hat wird davon angezogen und entwickelt das weiter - In verschiedene Dialekte jeweils mit eigener Syntax, in verschiedene Shells mit verschiedenen Kommandos... Und er versucht es in seiner Firma durchzusetzen. Weil die schlechtesten Programmierer bei Microsoft arbeiten ist es klar das Windows in C entsteht und damit geht eine Lawine los. Die Schnittstellen zu Windows sind in C und so werden auch die meisten Anwendungsprogramme in C entwickelt - mit den hübschen Bluescreens, die man mit C sehr einfach erzeugen kann.

Was machen Open-Source Entwickler wenn sie merken, das sie belächelt werden weil ihr UNIX eine Bedienungsoberfläche wie vor 20 Jahren hat - Sie entwickeln auch ein Windows, wenn auch ein paar Jährchen nach Apple, Digital Research und MS. Natürlich nicht ohne dieselben Fehler zu wiederholen: Es gibt 20 Windows Manager - alle nur mit Basisfunktionalität aber nicht solcher wie Windows 95. Wenn man das merkt macht man sich daran Windows zu kopieren und das auch gleich zweimal - GNOME und KDE als Stichwort. Doch es gibt eben nicht das System wie in Windows. Neue Programme machen keine Dateiverknüpfungen, keine Icons auf dem Desktop, keine Uninstallinformationen. Nur KDE Programme haben eine Zwischenablage, es fehlt komplett ein programmübergreifendes System wie OLE.

Das ist die zweite Schwäche von Open Source - ab einer bestimmten Größe wird das System so komplex dass man allgemeine Regeln einführen muss, die für alle Programme gelten. Bei UNIX konnte man dies umschiffen indem man dem Anwender 20 Programme vorsetzt die zusammen erst eine Funktionalität ergaben. Bei Windows geht das nicht. Mit dem Festlegen dieser Standards dieser Reglementierung tut sich die Open Source schwer und so entwickelt eben ein kleines Team KDE und ein anderes GNOME.

Pünktlichkeit ist eine Zier...

...Nur leider fehlt sie dir. Seit 1984 gibt es in IBM kompatiblen Rechnern eine interne Uhr auf dem Motherboard. Seitdem nannte ich 5 Rechner (bzw. neue Motherboards) mit dieser Errungenschaft mein Eigentum. Doch obwohl ein Computer mehrere Tausend Mark kostet, schafft es diese Branche nicht diesen Uhren auch nur die Genauigkeit einer 5 Mark Digitaluhr vom Wühltisch beizubringen, obgleich weder ein Display notwendig ist noch ein Armband. Das war beim ersten Rechner so, bei dem alleine das Motherboard einen Tausender kostete wie auch beim letzten Rechner. Es ist völlig normal dass diese Uhren mehrere Minuten pro Monat nachgehen während meine Billigarmbanduhr bis auf ein paar Sekunden genau ist. Ich halte das für einen weiteren Beweis, dass die Computerindustrie an der Lösung echter Probleme nicht interessiert ist. Es mag für die meisten Nutzer belanglos sein, doch spätestens wenn mehrere Computer ihre Daten abgleichen müssen, wird es kritisch. Wenn da jeder einen anderen Zeitstempel hat ist es schwer zu sagen was der neueste Stand ist.

Dafür gibt es einen Dienst der einem Computer stets die neueste Uhrzeit gibt, doch ist man zwar bei Microsoft darauf gekommen, dass sich Computer spontan ins Internet einwählen können, um sich bei Microsoft unbemerkt vom Benutzer Updates zu holen, aber dass bei jeder Einwahl einfach die aktuelle Uhrzeit geholt wird und die interne Uhr korrigiert wird geht nicht. Dann könnte man wenigstens mit diesen chronisch unzuverlässigen Zeitgebern leben. Doch dass würde ja dem User nützen und nicht Microsoft...

Die Auflösungsmär

In jeder Computerzeitschrift steht es : Sie brauchen für ein 10 x 15 Bild 3 MP und für ein 20 x 30 Bild mindestens 5 MP. Wirklich ?

Nun wie gut muss die Auflösung wirklich sein. Eigentlich nur so gut wie das Auge. Es ist der Maßstab aller Dinge. Wenn unser Auge Pixel erkennt so wirkt ein Bild pixelig und grob. Wenn ein Pixel kleiner als das Auflösungsvermögen des Auges ist, so ist alles in Ordnung. Die Auflösung ist aber anders als es uns die Werbung suggerieren will kein absolutes Maß sondern entfernungsabhängig. Jeder kennt dass : Wenn man direkt vor einer Plakatwand steht sieht man jedes einzelne Pixel und zwar ohne Lupe, die sind teilweise 1 cm und mehr groß. Doch aus 10 m Entfernung ist das Bild nicht pixelig.

Das menschliche Auge hat eine Auflösung von 120 Bogensekunden im Mittel (es gibt natürlich Zeitgenossen die sehen besser und andere wie der Autor erheblich schlechter). Diese Auflösung entspricht 1 mm auf 1720 mm Entfernung. Überträgt man dies auf ein 10 x 15 Bild. Betrachtet man es aus 172 mm Entfernung (17.2 mm , also relativ nahe) so sind dies genau 0.1 mm. Es reicht also für ein 10 x 15 Bild wenn dieses 1000 x 1500 Punkte aufweist oder 1.5 MP.

Da es besser ist dass die Auflösung etwas besser ist als das Auge sehen kann (damit ein Pixel nicht erkannt wird auch wenn man näher heran kommt) und wegen der Tatsache dass bei 1 Chip Kameras die Farbinformation aus 4 Pixeln gemittelt wurde, kommt man auf 2-3 MP als sinnvolle Auflösung für ein 10 x 15 Bild.

Braucht man nun für ein 20 x 30 Bild 5 MP ? Nein. Denn ein solches Bild schaut sich kein Mensch mehr aus 17 cm Entfernung an. Es hängt vielleicht an der Wand oder wenn man es in der Hand hält, dann schaut man aus größerer Entfernung darauf. Achten Sie einfach mal beim Schauen aus dem Fenster was sie bewusst wahrnehmen : Es ist nur ein kleiner Teil im zentralen Teil des Bildes. Konzentriert man sich auf einen anderen Teil, so muss man zwar das Auge nicht bewegen (es hat in der Tat einen großen Blickwinkel denn es abdeckt) aber dann nimmt man wiederum nur diesen Teil wahr.

Jeder Mensch hält im Normalfall ein Bild so, dass er das was ihn interessiert überblicken kann. Und ein 20 x 30 Bild hält man daher weiter weg. Solange man nicht vergrößert kommt man daher zu dem erstaunlichen Schluss : Die Megapixel sind völlig wurst, solange man ein Minimum von 2-3 MP erreicht.

HDTV und die Auflösungsmär

Im Jahre 2005 ist HDTV der große Renner und es soll uns ein viel schärferes Bild bringen. Doch brauchen wir dieses auch ? Natürlich ist ein HDTV Bild besser als ein PAL Bild. Doch daran sind nicht nur die bis zu 1920 x 1080 Pixel schuld.

Die Auflösung von PAL wird gerne als 720 x 576 angegeben. Doch das ist nur die halbe Wahrheit. Das ist die Auflösung die bei Digitalisieren von Fernsehsignalen von guten PAL Quellen wie Camcorder benutzt wird. Das Antennensignal von PAL ist ein Analoges Signal, bei dem es nur feststehende Zeilensignale gibt : Etwa 300 beim Übertragen über die Antenne. Die Pixel werden erzeugt indem die Signale in regelmäßigen Abständen auf Pixel abgebildet werden. Beim Format 4:3 hat PAL etwa 400 Pixelzeilen.

Das Fernsehsignal ist also weit weg von dem was gerne als Auflösung angegeben wird. Davon kann sich jeder überzeugen. Zum einen kann man einfach einmal ein Antennensignal über einen Framegrabber in verschiedenen Auflösungen digitalisieren. Man wird bald merken, dass der Unterschied von 360 x 288 (Halbe PAL Auflösung) zum echten Signal sehr gering ist.

Das zweite was man machen kann ist mit einer hochauflösenden Digitalkamera einmal das Senderlogo fotografieren und dann den ganzen Bildschirm und dann die Pixel die tatsächlich dargstellt werden ausrechnen. Ich habe das mal gemacht. Das "3SAT" Logo hat für die Buchstaben "sat" nur 32 echte Pixels in der Breite. Es macht bei einer größeren Aufnahme 132 der 1771 Pixel des Fernsehbildes aus. Wer Dreisatz beherrscht kommt auf 429 Pixel pro Zeile. In der Höhe sind es 344 Pixel.

Man kann nun leicht ausrechnen, dass bei einer 55 cm Bildröhre, wie sie der Autor hat, der minimale Abstand damit man keine Pixels wahrnimmt bei 400 x 300 Pixel pro Bild etwa auf 1.90 m Minimalabstand liegt und bei einer 72 cm Röhre auf 250 cm. Das abgespeckte PAL Signal ist bei vielen Leuten bei den normalen Fernsehergrößen und Abständen also in einem Bereich indem man es wahrnehmen kann insbesondere, weil es ein analoges Signal ist : Zwar löst mein Fernseher 400 x 300 Pixel auf, doch wenn man sich ein Foto mit einer Digitalkamera anschaut und dann sein Augenmerk auf harte Kanten legt, so sieht man, dass die Auflösung des Bildes schlechter ist als die Anzahl der Pixel und ein abrupter Helligkeitsanstieg innerhalb von 2 Pixeln erfolgt. Die reale Auflösung ist also nochmals schlechter, und das kann unser Auge sehen.

Würde man das Fernsehsignal wirklich in 720 x 576 Pixeln ausstrahlen, echten Pixeln, digital nicht analog kodiert, so wären die meisten Menschen damit zufrieden. Erst bei sehr großen Bildschirmdiagonalen würde man die Pixel erkennen. Bei voller PAL Auflösung und 3 m Abstand zum Fernseher wäre dies bei einer Diagonale von 160 cm. HDTV wirkt deswegen so gut weil zum einen die Monitore tatsächlich 1080 x 720 Pixels darstellen (die 1920 x 1080 die auch HD Standard sind, bieten nur sehr große und teure Monitore) und man zum anderen ein viel besseres Signal einspeist, das auch tatsächlich diese Auflösung hat. Eine so hohe Auflösung ist jedoch nicht notwendig.

Der Sinnesmensch

Betrachtet man sich Diskussionen um Grafikkarten, Soundkarten und ähnliches, so findet man beeindruckende Werte. Da sollte eine 3D Grafikkarte schon mal 70 Frames pro Sekunde darstellen, damit die Spieler schnell genug reagieren können. Soundkarten müssen 24 Bit Sound und 176 KHz Abtastrate behrschen. Komisch, ohne dass ich es bemerkt habe muss man die Menschheit genetisch verbessert haben.

Fangen wir mit dem Sound an. Das menschliche Gehör kann den Bereich von 20 Hz bis 20 KHz wahrnehmen, wobei dieser Bereich im Laufe des Lebens immer kleiner wird, vor allem bei den hohen Tönen. Eine Abtastrate von 44-48 KHz wie sie bei Stereo nötig ist (22-24 KHz pro Kanal) reicht also völlig aus.

In der Lautstärke kann der Mensch einen Bereich von 120 db wahrnehmen, das entspricht 12 Zweierpotenzen. Unterschiede von 3 db können noch unterschieden werden. So gesehen reichen 8 Bit für den Pegel aus. Damit man bei Stücken mit vielen leisen Tönen aber noch eine gute Trennung der Lautstärke hinbekommt haben sich 16 Bit eingebürgert, damit kann man 655356 Lautstärkestufen wiedergeben.

Und was ist mit der Grafik ? Fangen wir mit den Farben an. Das ist ein schwieriges Thema, weil es keine absolute Wahrnehmung gibt. Nehmen wir zwei T-Shirts in leicht unterschiedlichen Farbtönen. Präsentiert man diese getrennt so halten viele sie farblich identisch. Präsentiert man sie nebeneinander so fällt der Unterschied aus. Wie viele Farben der Mensch unterscheiden kann, darüber gibt es nur Schätzungen. Sie gehen von einigen Hunderttausend bis zu mehreren Millionen. Doch auch hier kommt es auf die Auswahl an. Ein Bild kann bei geeigneter Auswahl der Farben schon mit 256, auf jeden Fall aber mit 65535 Farben stimmig wirken. Nur wenn man ein Vergleichsbild in "True Color" präsentiert wird der Unterschied bemerkt. Da True Color (8 Bit pro RGB Anteil) der internen Verarbeitung von Grafikkarten entgegenkommt gibt es heute keinen Grund einen anderen Farbmodus zu benutzen. Mehr Farben wie sie Scanner benutzen haben nur einen Vorteil, wenn man durch Bildbearbeitung neue Farben erzeugt. Dann hat man eine Reserve und läuft nicht in Gefahr dass Bildteile in Weiß oder Schwarz "absaufen".

Doch wie sieht es mit den berühmten Framerates von 3D Grafikkarten aus ? Nun hier geht es um bewegte Bilder. Das menschliche Auge kann bewegte Bilder ab etwa 16 Bildern pro Sekunde nicht mehr unterschieden. Daher kommen Fernsehen und Kino mit 24/25 Bildern pro Sekunde aus. Bei einem festen Bild wie es ein PC-Monitor liefert sollten es mehr Frames sein, weil sie nicht bewegt sind. Am Rande des Gesichtsfelds registrieren die Zäpfchen den Helligkeitswechsel durch den Elektronenstrahl und das Bild erscheint unterhalb von 70 Frames/sec unruhig und zittrig. Wenn das Bild nachleuchtet wie es früher bei den Phosphorröhren und den TFT's heute ist so kann man aber die Framerate senken. TFT's flimmern bei 50 Hz nicht.

Doch bewusst wahrnehmen kann man nur größere Wechsel. Von einer Grafikkarte die 70 Frames pro Sekunde zeigt hat man nichts, denn so schnell kann man auch ein auftauchendes Monster nicht bemerken und vor allem nicht reagieren. Vielleicht haben Sie ja auch in der Schule einen Reaktionstest gemacht. Probanden müssen dabei einen Taster oder ähnliches drücken wenn sie gepiekst werden. Sie werden feststellen, das sie meisten Menschen mindestens 80 ms zum Reagieren brauchen. Solange braucht ein Signal von den Nerven zum Gehirn und zurück zur Hand. 80 ms, das entspricht 12 Frames pro Sekunde. Wenn eine Grafikkarte 24 Frames pro Sekunde darstellt, so ist sie schnell genug um für das Auge bewegte Bilder darzustellen und schnell genug um rechtzeitig reagieren zu können.

Wir finden ein Paradoxon: Zum einen gibt es immer mehr Codex die Daten schrumpfen um Teile auszublenden, die man sowieso nicht wahrnimmt wie MP3 oder MPEG. Zum anderen gibt es Leute die 24 Bit Sound, 70 Frames pro Sekunde haben wollen und dafür viel Geld locker machen ohne dies wahrnehmen zu können. Das erinnert irgendwie an die siebziger Jahre, als man für oxidfreie Kabel und vergoldete Audiostecker Unsummen bezahlte ohne irgend einen Mehrwert zu haben.

Computer 1982 - und heute!

Atari 800 im Jahre 1982Zum Schluss als letztendlicher Beweis wie es mit den Computern rapide bergab geht, eine Werbeanzeige von Atari aus dem Jahre 1982:

"Was er nicht weis - Wird es ein Junge oder Mädchen?
Sonst ist der Atari kaum um eine Antwort verlegen. Zum Beispiel kann er Ihnen heute schon ausrechnen, ob das Mofa zu Peters sechzehnten Geburtstag drin sein wird oder für Annabelle das Modellkleid für den Abschlussball. Denn dieses kleine Wunderding, das auf kleinstem Raum Platz hat, wie eine Schreibmaschine aussieht, aber noch viel einfacher zu bedienen ist, ähnelt einem Eisberg: sein bester Teil liegt unter der Oberfläche. Man muss ihn nur entdecken.

Dass ein Atari seine Sprache beherrscht, dürfen Sie stillschweigend voraussetzen. Dass Sie seine Geduld unbedenklich strapazieren können, liegt auf der Hand. Dass er dabei nichts durchgehen lässt, macht ihn zu einem der besten Lehrer, den man sich denken kann. Und trotzdem gibt er keine Zensuren.

Was nicht ausschließt, dass er mit Zahlen umgehen kann. Und wie. Wenn Sie wissen wollen, wie viel Sie von Geburt an für Peter oder Annabelle regelmäßig mindestens auf die hohe Kante legen müssen, damit später das Studium finanziert ist: fragen Sie den Atari. Wenn Sie Ihre Hochs und Tiefs voraussehen möchten, der Atari errechnet genau Ihren Biorhythmus. Denn das ist ohne Zweifel die stärkste Seite von ihm: Er ist (fast) zu allem fähig. Ob Ihr Sohn endlich den Satz des Pythagoras begreift oder Ihre Nichte mit seiner Hilfe schon im Kindergarten das Abc kann (von den vielen Möglichkeiten, wie man mit ihm spielen kann - außer Pac-Man -, wollen wir gar nicht erst sprechen).

Sollte Ihr Sohn bzw. Ihre Tochter allerdings eines Tages statt Buchhalter Korrespondent in Übersee werden - nehmen Sie es dem Atari nicht übel. Denn was einer damit anfängt, liegt ganz allein bei ihm selbst. Und nicht am Atari."

Nun bei dem beworbenen Computer handelt es sich um einen Atari 800. Ein Rechner mit dem 8 Bit 6502 Prozessor so um die 1,2 MHz und 32 Kilobyte (nicht Megabyte!) RAM. Grob gesagt ist ein 1999 gekaufter Rechner so zirka 2000-4000 mal leistungsfähiger als dieses Modell. Aber kann ihr PC ihre Sprache? Strapaziert er ihre Geduld oder Sie seine? Also entweder sind die PCs seither um einiges schlechter geworden oder Atari hat ziemlich übertrieben... Geschweige denn von den tollen Zukunftsaussichten die der Kauf eines solchen Gerätes verspricht.

Dieser Text stammt von Bernd Leitenberger
© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.

Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.

Sitemap Kontakt Neues Hier werben Bücher vom Autor Buchempfehlungen Top 99