„Its’s good enough“
Dieser Spruch findet sich häufig bei Besprechungen von Netbooks. Diese arbeiten mit einem Atom Prozessor, niedrig getaktet, mit nur einem Kern, ohne viele Optimierungsmöglichkeiten die sonst ein x86 Prozessor hat. Er ist damit nur so schnell wie ein PC vor 5 Jahren. Trotzdem reicht er den Anwendern – zum Surven reicht es aus. Dann gab es ein Editional in der ct‘ wo über die Hardware Entwicklung der letzten 20 Jahre resümiert wurde und mal ausrechnete wie viele 20 MByte Festplatten man braucht um den Inhalt einer DVD abzuspeichern.
Dazu kann ich nun auf einen Monat Erfahrung mit Windows 7 zurückblicken – bei mir kam es nach XP. Das alles bestätigt mich in meiner Theorie, das jede Computerentwicklung irgendwann ein Stadium der Vollendung erreicht ab der es nur noch graduelle Verbesserungen gibt. Wie ich das meine? Nun nehmen wir einfach einmal die Art wie Computer in den letzten 30 Jahren benutzt wurden.
Schon vor 30 Jahren gab es die ersten Textverarbeitungsprogramme. Damit konnte man schon viel machen, aber es dauerte etwa 10 Jahre bis aus einem Programm, das nicht einmal in den Hauptspeicher passte, von Diskette lief und mit kryptischen Kürzeln bedient wurde, eines wurde das man mit der Maus bedienen konnte, mit Rechteschreibprüfung und Darstellung des Textes ähnlich wie gedruckt (im Grafikmodus der damaligen Bildschirme). Danach haben sich diese Textmodus basierten Programme kaum noch weiter entwickelt. Etwas ähnliches kann man bei den Programmentwicklung feststellen. Auf Editor/Compiler/Debugger kam die erste IDE mit Turbo Pascal. Sie wurde immer benutzerfreundlicher. Doch seit TP 6.0 von 1991 hat sich nicht mehr viel getan. Wer die Free Pascal IDE sich anschaut, wird nicht mehr viel Neues entdecken verglichen mit der letzten Turbo Pascal Version von 1992.
Auch bei Windows 7 kann ich nicht viel neues sehen. Der eine oder andere mag den Look schöner finden und ein paar Sachen sind wirklich gut gemacht, aber es ist eine evolutionäre Weiterentwicklung verglichen mit Windows XP, das vor 9 Jahren erschient. Vergleicht man dagegen den Sprung von Windows 3.0 auf Windows XP, das wiederum weitere 9 Jahre in der Vergangenheit liegt, dann wird dies deutlich.
Ich kann auch nicht den großen Usability Sprung von WinWord 2.0 und OpenOffice 3.0 sehen, obwohl hier 17 Jahre dazwischen liegen. Jeder Anwendungszweck erreicht irgendwann einmal eine Ebene der Vervollkommnung. Warum benötigen wir dann immer bessere Computer? Weil sich die Anwendungsprofile ändern. Heute werden Videos angeschaut, das hat vor 10 Jahren niemand gemacht. Auch im Internet hat sich einiges geändert statische Seiten aus HTML und Bildern wurden abgelöst von Webanwendungen auf Basis von Ajax und PHP.
Das bedeutet, dass es immer noch mehr Rechenleistung benötigt wird – neue Bedienkonzepte wie Touchscreens, Handschriftenerkennung und vielleicht die irgendwann einmal wirklich einsatzfähige Spracherkennung werden mehr Rechenleistung fordern. Videospiele sind auch noch ein Stückchen von der Realität entfernt und dürften sicher noch eine Weil brauchen bis sie diese erreicht haben. Aber: Es gibt für jede Anwendung eine Grenze. Blickt man über den PC Tellerrand so gibt es durchaus noch Einsatzgebiete für heute längst ausgemusterte Technologie. 8 Bit Mikrocontroller wie die 68HCXX Serie oder Intels 8251 Serie werden in Milliardenstückzahlen produziert und wandern in Waschmaschinen, Mikrowellenherde oder andere Anwendungen mit geringen Anforderungen. Selbst für Echtzeitsteuerung in Autos reichen oft Mikrocontroller der 16 Bit Generation von ARM und Infineon. Überhaupt: Überall da wo keine grafische Benutzeroberfläche notwendig ist, ist die benötigte Rechenleistung oft gering. Kleines Rechenbeispiel: Ein typischer 16 Mikrocontroller schafft bei 20-32 MHZ Takt rund 2-3 Millionen Befehle pro Sekunde. Wenn er mit der Überwachung eines Otto-Motors betraut ist und rund 200 mal pro Sekunde eine Zündung überwacht (entspricht 12000 U/min) kann er bei jedem dieser Programmteile rund 10.0000 Befehle ausführen – das ist eine ganze Menge und da kann man auch wirklich viel berechnen.
Selbst wenn die Datenmenge sehr hoch ist gibt es Lösungen: Wenn sie auf ihrem PC mal eine Blue Ray oder ein HD-Video Anschauen, achten sie auf die Prozessorauslastung. seit der OTR HD Videos (in 1280 x 720) anbietet, kann ich das Prüfen. Bei mir geht die Prozessorauslastung beim Abspielen bei einem Kern von 4 auf 30-40 % und beim zweiten von 2 auf 10-20 %. Also zusammen rund 50 % eines Kerns mit 2.6 GHz Takt (Athlon 5050). Übrigens klappte s nur mit dem Windows Mediaplayer, der VLC verschluckt sich schon an dem Format :-(.
Sie können aber auch für 100-200 Euro einen HD fähigen Festplattenspieler kaufen und der packt sogar 1920 x 1080. Wie das ? Ein kompletter PC für 100-200 Euro? Natürlich nicht. Die Spezialaufgabe Dekodieren von Videos kann parallelisiert und in Hardware gegossen werden. Das sind spezielle Chips mit Hardwaredecodern. Es ist sogar möglich für ein exotisches Problem die Hardware zu designen. Sogenannte Field Programmable Arrays erlauben es die Logik durch ein Programm festzulegen und zu ändern. Es gibt Leute die emulieren damit z.B. längst ausgestorbene Heimcomputer – komplett samt Custom IC’s, RAM und ROM. Wenn man es häufiger braucht lohnt es sich ein Custom IC herzustellen. Auch das ist in Kleinserien heute möglich, auch wenn dabei nicht die neueste Technologie zum Einsatz kommt.
In der Summe ist zwar die PC Leistung in den letzten Jahrzehnten absolut vielleicht um einen Faktor 100.000 gestiegen – Zumindest bei RAM und Festplattengrößen ist dies so, bei Prozessoren ist der Vergleich schwerer. Aber nicht alles davon fließt in die Usability. Man muss nur den Test machen ein modernes Betriebssystem auf einem alten Rechner zu installieren….
Warum werden PC’s trotzdem immer langsamer? Weil man in vielen Bereichen nicht um die Neuinstallation von Erweiterungen rumkommt – sei es mit dem Steuerprogramm das eine neue Java Virtual Maschine 8mit hohem Speicherplatzverbrauch) und einem Datenbankserver installiert oder das Betriebssysteme und Anwendungen eingestellt sind nicht nur sicherheitskritische Updates sondern auch „Erweiterungen“ oder neue Versionen installiert. Ich denke nur an Krausen an den Frühsommer als Windows XP eine „Indexfunktion“ über das uatomatische Update installierte und ichd en PC praktisch nicht mehr flüssig bedienen konnte bis ich das deinstalliert hatte.
Was gibt es neues? Nun der Dezember war der bislang meistbesuchteste im Blog. Erstmals habe ich die 10.000 Besucher/Monate Grenze geknackt (siehe Grafik). Ich stelle auch mit Freuden fest, dass es auch an Nichtraumfahrtthemen Interesse gibt. Mir fallen da zwar alleine durch die Recherche zur Neuauflage des ATV Buches und dem Beschäftigen mit der ISS einige Themen ein. Aber vielleicht ist es ganz gut so mal einen Monat ohne Raumfahrt zu haben. Das letzte Quartal lief auch ganz gut im Buchverkauf. Spannend wird allerdings dieses sein, weil es eher „normal“ ist: Die beiden letzten Quartale waren geprägt von dem Raumfahrtboom zum Vierzigsten Jubiläum von Apollo 11 und dann das Weihnachtsquartal. Offensichtlich werden Bücher gerne zu Weihnachten verschenkt, weil es da immer anzieht. Zudem sind in dem Quartal und im letzten einige Bücher neu erschienen. Das wird bei diesem nicht der Fall sein, eventuell wird die Neuauflage vom Gemini Buch bis März fertig, aber das ersetzt dann ein altes Buch. Was ich jetzt auf jeden Fall weis, ist dass ich kein ISS Buch schreiben werde – es gibt zu wenig Fakten über die ISS. Na ja es gibt eine Menge Fakten über die Arbeit der Astronauten, ihre Biographien und die Missionen, aber wenige über die Module und wer wissen will was die STS-117 Crew vor ihrem Flug gemacht hat kann ja das Presskit der NASA lesen. So gesehen ist es ganz gut dass es nun ein kombiniertes ATV/ISS Buch wird.
Hallo Bernd!
Sicher werden die PC’s in ihrer Benutzung gefühlt nicht so viel schneller. Andererseits sind die Programme auch deutlich komplexer geworden. Gerade der Vergleich WinWord 2.0 (ich muss zugeben, dass ich dass nicht wirklich kenne) und OpenOffice 3.0 zeigt denke ich schon einen deutlichen Fortschritt. Das hat aber nicht zwangsweise mit der usability zu tun. OOo läuft z.B. auf vielen Plattformen, unterstützt zig Dateiformate, hat drag&drop, Echtzeit Rechtschreibkorrektur, uvm.
Viele Dinge passieren „unter der Haube“ und automatisch. Auch beim OS. Heute kann man von zig Medien aus ein OS installieren, oder es „live“ starten. Es dauert keine 10min (inkl. Installation) und es läuft einfach. Dazu noch ein vernünftiges Paketmanagement (ok, das gibts bei M$ immer noch nicht), keine umständlichen Treiberinstallationen etc. pp.
Auch für Entwickler ist vieles einfacher geworden (wer programmiert noch aktuelle Programme in Assembler?). Leider entsteht genau hier auch manchmal das Performanceproblem.
Und M$ finde ich nicht gerade das Maß aller Dinge was usability und performance angeht. Schönes Beispiel Apple. Oder probieren sie mal damnsmalllinux (www.damnsmalllinux.org) aus. Klein, schnell und (fast) alles dabei – und läuft von CD!
Es gibt genügend Alternativen, wo man den Fortschritt sehr deutlich sieht!
Auch hat man sich inzwischen an so vieles gewöhnt, woran man früher nichtmal gedacht hat (z.B. Multitasking, Hotplug, Multimedia, uvm.). Es muß es ja auch Gründe geben, solche „Monsterprogramme“ zu benutzen. Natürlich steigt damit die Komplexität in der IT. Und sicher wird hierdurch ein Teil des Fortschritts wieder aufgefressen. Wenn man weiß was und wie man etwas machen will sucht man sich halt spezialisierte und effiziente kleine Programme aus und benutzt diese.
Mein Privatrechner ist ein PIII (700MHz) mit 256MB RAM. Ich hab immer die aktuellste Software drauf, aber das System rennt! Ist halt kein WinDos drauf 😉 Nur dank des „Fortschritts“ im Internet (Viel Flashmüll) könnte es manchmal etwas mehr RAM sein. Aber auch hierfür gibt es Lösungen, z.B. Adblock.
Natürlich haben sich auch textbasierte Programme sehr sehr stark weiterentwickelt. Nur benutzt diese z.B. der durchschnittliche Win-user kaum noch. Sehr schöne Beispiele sind emacs (ist schon fast ein eigenes OS – ich mags allerdings nicht) und mplayer.
Klar, eine Programm mit guter Usability wird sich, wenn es ausgereift ist, nicht mehr so offenkundig weiterentwickeln. Wozu auch?!
Was nen aktuellen Rechner ausmacht seh ich z.B. immer daran, dass ich zig Dinge gleichzeite einfach laufen lasse. Bsp: Privat (alter rechner): Browser, IM, Musikplayer, 1 bis 3 weiter Programme. Arbeitsrechner (Pentium M): das gleich, nur dass deutlich mehr Tabs offen und viele (riesige, mit vielen Bildern) Dokumente gleichzeitig offen sind und auch gelesen bzw. bearbeitet werden. Wobei hier die 1000% mehr RAM den deutlichsten Performancesprung bringen. Der Prozessor läuft meist nur bei 800MHz.
Der Unterschied zu nem aktuellen Rechner ist sicher noch größer. Wobei dann die Geschwindigkeitsunterschiede zwischen flüssig und „qasi-echtzeit“ sich auf das reale arbeiten eher wenig auswirkt. Meßbar ist der Unterschied schon gewaltig!
Ich finde Windows 7 ist stellenweise eher sogar ein Rückschritt als nur ein kleiner Fortschritt. Es hat einen Haufen kleine Sachen die mich nerven, z.B. das umständliche neue Startmenü (man muss auf jeden Eintrag klicken damit er sich öffnet, statt nur mit der Maus drüber zu fahren – es gibt zwar ein alternatives Classic Startmenu irgendwo zum Download, aber trotzdem unnötig), der Explorer schließt sich wenn man auf dem CD-Laufwerk ist und die CD rausnimmt (ist schon seit Vista so), man kann nicht mehr durch zwei Rechtsklicks auf ein Programm in der Taskleiste selbiges schließen, der freie Speicherplatz auf der Festplatte wird nicht mehr in der Explorer-Statusleiste angezeigt, die Leisten im Explorer kann man nicht mehr verschieben/anpassen etc. Abgesehen davon bootet es bei mir nicht mal mehr von allein, sondern ich muss den Bootvorgang jedes mal mit F8 rechtzeitig abpassen und von dort aus starten.
Du hast die falsche Windows 7 Version. Probiere diese da:
Custom ICs für Kleinserien werden heute kaum noch gemacht, das war früher viel verbreiteter. Die Field Programmable Gate Arrays werden immer Leistungsfähiger, gleichzeitig werden die Einmalkosten für Custom ICs immer größer. Der Bereich, ab dem sich ein Custom IC gegenüber einem FPGA lohnt, verschiebt sich zu immer höheren Stückzahlen.
Der neueste Trend sind ICs, die Standardhardware (CPU, Bussystem, Standardperipherie) mit einem FPGA-Bereich für die anwendungsspezifische Logik kombinieren.
Übrigens: Die ARM-CPUs sind allesamt 32-Bit-Architekturen.