Bernd Leitenbergers Blog

„Its’s good enough“

Statistik 12/2009Dieser Spruch findet sich häufig bei Besprechungen von Netbooks. Diese arbeiten mit einem Atom Prozessor, niedrig getaktet, mit nur einem Kern, ohne viele Optimierungsmöglichkeiten die sonst ein x86 Prozessor hat. Er ist damit nur so schnell wie ein PC vor 5 Jahren. Trotzdem reicht er den Anwendern – zum Surven reicht es aus. Dann gab es ein Editional in der ct‘ wo über die Hardware Entwicklung der letzten 20 Jahre resümiert wurde und mal ausrechnete wie viele 20 MByte Festplatten man braucht um den Inhalt einer DVD abzuspeichern.

Dazu kann ich nun auf einen Monat Erfahrung mit Windows 7 zurückblicken – bei mir kam es nach XP. Das alles bestätigt mich in meiner Theorie, das jede Computerentwicklung irgendwann ein Stadium der Vollendung erreicht ab der es nur noch graduelle Verbesserungen gibt. Wie ich das meine? Nun nehmen wir einfach einmal die Art wie Computer in den letzten 30 Jahren benutzt wurden.

Schon vor 30 Jahren gab es die ersten Textverarbeitungsprogramme. Damit konnte man schon viel machen, aber es dauerte etwa 10 Jahre bis aus einem Programm, das nicht einmal in den Hauptspeicher passte, von Diskette lief und mit kryptischen Kürzeln bedient wurde, eines wurde das man mit der Maus bedienen konnte, mit Rechteschreibprüfung und Darstellung des Textes ähnlich wie gedruckt (im Grafikmodus der damaligen Bildschirme). Danach haben sich diese Textmodus basierten Programme kaum noch weiter entwickelt. Etwas ähnliches kann man bei den Programmentwicklung feststellen. Auf Editor/Compiler/Debugger kam die erste IDE mit Turbo Pascal. Sie wurde immer benutzerfreundlicher. Doch seit TP 6.0 von 1991 hat sich nicht mehr viel getan. Wer die Free Pascal IDE sich anschaut, wird nicht mehr viel Neues entdecken verglichen mit der letzten Turbo Pascal Version von 1992.

Auch bei Windows 7 kann ich nicht viel neues sehen. Der eine oder andere mag den Look schöner finden und ein paar Sachen sind wirklich gut gemacht, aber es ist eine evolutionäre Weiterentwicklung verglichen mit Windows XP, das vor 9 Jahren erschient. Vergleicht man dagegen den Sprung von Windows 3.0 auf Windows XP, das wiederum weitere 9 Jahre in der Vergangenheit liegt, dann wird dies deutlich.

Ich kann auch nicht den großen Usability Sprung von WinWord 2.0 und OpenOffice 3.0 sehen, obwohl hier 17 Jahre dazwischen liegen. Jeder Anwendungszweck erreicht irgendwann einmal eine Ebene der Vervollkommnung. Warum benötigen wir dann immer bessere Computer? Weil sich die Anwendungsprofile ändern. Heute werden Videos angeschaut, das hat vor 10 Jahren niemand gemacht. Auch im Internet hat sich einiges geändert statische Seiten aus HTML und Bildern wurden abgelöst von Webanwendungen auf Basis von Ajax und PHP.

Das bedeutet, dass es immer noch mehr Rechenleistung benötigt wird – neue Bedienkonzepte wie Touchscreens, Handschriftenerkennung und vielleicht die irgendwann einmal wirklich einsatzfähige Spracherkennung werden mehr Rechenleistung fordern. Videospiele sind auch noch ein Stückchen von der Realität entfernt und dürften sicher noch eine Weil brauchen bis sie diese erreicht haben. Aber: Es gibt für jede Anwendung eine Grenze. Blickt man über den PC Tellerrand so gibt es durchaus noch Einsatzgebiete für heute längst ausgemusterte Technologie. 8 Bit Mikrocontroller wie die 68HCXX Serie oder Intels 8251 Serie werden in Milliardenstückzahlen produziert und wandern in Waschmaschinen, Mikrowellenherde oder andere Anwendungen mit geringen Anforderungen. Selbst für Echtzeitsteuerung in Autos reichen oft Mikrocontroller der 16 Bit Generation von ARM und Infineon. Überhaupt: Überall da wo keine grafische Benutzeroberfläche notwendig ist, ist die benötigte Rechenleistung oft gering. Kleines Rechenbeispiel: Ein typischer 16 Mikrocontroller schafft bei 20-32 MHZ Takt rund 2-3 Millionen Befehle pro Sekunde. Wenn er mit der Überwachung eines Otto-Motors betraut ist und rund 200 mal pro Sekunde eine Zündung überwacht (entspricht 12000 U/min) kann er bei jedem dieser Programmteile rund 10.0000 Befehle ausführen – das ist eine ganze Menge und da kann man auch wirklich viel berechnen.

Selbst wenn die Datenmenge sehr hoch ist gibt es Lösungen: Wenn sie auf ihrem PC mal eine Blue Ray oder ein HD-Video Anschauen, achten sie auf die Prozessorauslastung. seit der OTR HD Videos (in 1280 x 720) anbietet, kann ich das Prüfen. Bei mir geht die Prozessorauslastung beim Abspielen bei einem Kern von 4 auf 30-40 % und beim zweiten von 2 auf 10-20 %. Also zusammen rund 50 % eines Kerns mit 2.6 GHz Takt (Athlon 5050). Übrigens klappte s nur mit dem Windows Mediaplayer, der VLC verschluckt sich schon an dem Format :-(.

Sie können aber auch für 100-200 Euro einen HD fähigen Festplattenspieler kaufen und der packt sogar 1920 x 1080. Wie das ? Ein kompletter PC für 100-200 Euro? Natürlich nicht. Die Spezialaufgabe Dekodieren von Videos kann parallelisiert und in Hardware gegossen werden. Das sind spezielle Chips mit Hardwaredecodern. Es ist sogar möglich für ein exotisches Problem die Hardware zu designen. Sogenannte Field Programmable Arrays erlauben es die Logik durch ein Programm festzulegen und zu ändern. Es gibt Leute die emulieren damit z.B. längst ausgestorbene Heimcomputer – komplett samt Custom IC’s, RAM und ROM. Wenn man es häufiger braucht lohnt es sich ein Custom IC herzustellen. Auch das ist in Kleinserien heute möglich, auch wenn dabei nicht die neueste Technologie zum Einsatz kommt.

In der Summe ist zwar die PC Leistung in den letzten Jahrzehnten absolut vielleicht um einen Faktor 100.000 gestiegen – Zumindest bei RAM und Festplattengrößen ist dies so, bei Prozessoren ist der Vergleich schwerer. Aber nicht alles davon fließt in die Usability. Man muss nur den Test machen ein modernes Betriebssystem auf einem alten Rechner zu installieren….

Warum werden PC’s trotzdem immer langsamer? Weil man in vielen Bereichen nicht um die Neuinstallation von Erweiterungen rumkommt – sei es mit dem Steuerprogramm das eine neue Java Virtual Maschine 8mit hohem Speicherplatzverbrauch) und einem Datenbankserver installiert oder das Betriebssysteme und Anwendungen eingestellt sind nicht nur sicherheitskritische Updates sondern auch „Erweiterungen“ oder neue Versionen installiert. Ich denke nur an Krausen an den Frühsommer als Windows XP eine „Indexfunktion“ über das uatomatische Update installierte und ichd en PC praktisch nicht mehr flüssig bedienen konnte bis ich das deinstalliert hatte.

Was gibt es neues? Nun der Dezember war der bislang meistbesuchteste im Blog. Erstmals habe ich die 10.000 Besucher/Monate Grenze geknackt (siehe Grafik). Ich stelle auch mit Freuden fest, dass es auch an Nichtraumfahrtthemen Interesse gibt. Mir fallen da zwar alleine durch die Recherche zur Neuauflage des ATV Buches und dem Beschäftigen mit der ISS einige Themen ein. Aber vielleicht ist es ganz gut so mal einen Monat ohne Raumfahrt zu haben. Das letzte Quartal lief auch ganz gut im Buchverkauf. Spannend wird allerdings dieses sein, weil es eher „normal“ ist: Die beiden letzten Quartale waren geprägt von dem Raumfahrtboom zum Vierzigsten Jubiläum von Apollo 11 und dann das Weihnachtsquartal. Offensichtlich werden Bücher gerne zu Weihnachten verschenkt, weil es da immer anzieht. Zudem sind in dem Quartal und im letzten einige Bücher neu erschienen. Das wird bei diesem nicht der Fall sein, eventuell wird die Neuauflage vom Gemini Buch bis März fertig, aber das ersetzt dann ein altes Buch. Was ich jetzt auf jeden Fall weis, ist dass ich kein ISS Buch schreiben werde – es gibt zu wenig Fakten über die ISS. Na ja es gibt eine Menge Fakten über die Arbeit der Astronauten, ihre Biographien und die Missionen, aber wenige über die Module und wer wissen will was die STS-117 Crew vor ihrem Flug gemacht hat kann ja das Presskit der NASA lesen. So gesehen ist es ganz gut dass es nun ein kombiniertes ATV/ISS Buch wird.

Die mobile Version verlassen