Hardwarefirmen, Softwarefirmen oder Dienstleister – wer ist am erfolgreichsten

So, nach einer Woche mal wieder ein neuer Blog. Nicht, dass ich nichts zu schreiben hätte, aber geht mehr in Richtung Meinung und wie ich den fehlenden Kommentaren entnehme interessiert die ja nicht so viele. Ich habe zwei neue Artikel geschrieben über die Versionen von DOS und Windows, und weil ich die auch ausprobiert habe, folgt noch einer wie man selbst eine virtuelle Maschine aufsetzt.

Auf beides hat mich die jährliche Retro-Ausgabe der ct‘ gebracht, die aber dieses Jahr extrem an Niveau verloren hat. Die meisten Redakteure haben von dem, was sie schreiben keine praktischen Erfahrungen mehr. Das zeigt sich daran das man alle Heimcomputer – inklusive des Altair 8800 in einen Artikel geworfen hat, auch meine CPC Serie – immerhin nach C64 und Spectrum die dritterfolgreichste Serie bei den Heimcomputern. Im Grafikkartenartikel werden 10 Jahre Entwicklung in zwei Absätzen abgehandelt, mit noch dazu falschen technischen Daten und sich dann seitenweise über jede noch so kleine Änderung bei 3D-Beschleunigerkarten ausgelassen. Ich dachte mir darüber einen Artikel zu schreiben, doch wie schon gesagt, das ist eben nur Meinung. Continue reading „Hardwarefirmen, Softwarefirmen oder Dienstleister – wer ist am erfolgreichsten“

Software wird schneller langsam, als Hardware schneller wird

Dieses von Nikolaus Wirth beschriebenen Phänomen wird inzwischen auch als „Wirthsches Gesetz“ bezeichnet. Demnach wird der Fortschritt bei der Hardwareentwicklung durch immer ineffizienter programmierte Software ausgeglichen. Nun ganz so schlimm würde ich es nicht sehen. Aber ich will mal dieses Thema aus einer anderen Perspektive aufgreifen. Und zwar will ich die Stationen der Benutzerfreundlichkeit von Anwendungen bei PC’s Revue passieren lassen.

Als die 8-Bit-Rechner einen Hauptspeicherausbau von annähernd dem Maximum was adressiert werden konnte, so 48 bis 64 Kbyte hatten, konnte man mit CP/M die ersten Anwendungsprogramme betreiben. Wer mal mit Wordstar, DBASE oder Multiplan gearbeitet hat, weiß aber auch von den Einschränkungen. Wordstar hatte kryptische Tastenkombinationen. Formatierungen gab es als Steuerzeichen auf dem Bildschirm und genauso wie bei Multiplan konnte man beim Scrollen sehen wie sich jede Zeile neu aufbaute. Dbase lieferte Datensätze langsam zurück, 1-2 pro Sekunde. Continue reading „Software wird schneller langsam, als Hardware schneller wird“

Ja, Computer werden langsamer!

Gestern habe ich mal wieder nach meinem Namen gegoogelt. Ich mache das ab und an. Wobei ich mich auf die Links in Groups beschränke. Die anderen Links sind praktisch nicht mehr nachzuvollziehen, da es über 10.000 derer gibt. Neben einem glühenden Plichta Anhänger (leider bar jeder Grundkenntnisse von Thermodynamik) bin ich auch auf ein Statement gestoßen bei dem jemand mal so philosophiert wie ich es gerne tue.

Continue reading „Ja, Computer werden langsamer!“

Neue Prozessoren und neue Software

Ich habe gerade einen Bericht über die Architektur von Intels neuem Prozessor Core I7 gelesen. Er führt wieder neue Befehle ein, mit denen man z.B. Strings besser vergleichen kann und die Stringlänge schneller bestimmen. Vor allem gibt es wieder Hyperthreading und neue Hardware Features, wie das komplette Stilllegen von Kernen oder das Hochtakten der anderen Kerne wenn einige stillgelegt sind.

Das ganze erinnert mich an eine Grundproblematik, die wir eigentlich seit dem Pentium II haben. Bis dahin war es so, dass die Prozessoren die Befehle immer schneller ausführten, entweder weil sie weniger Takte pro Befehl brauchten oder die Taktfrequenz anstieg. Es gab gravierende Erweiterungen in der Architektur: Mit dem 80286 den Protected Mode und eine 16 MByte Adressierung und mit dem 386 den vollen 32 Bit Modus mit 32 Bit Registern und 32 Bit Adressierung. Aber: Software musste dafür entwickelt werden und dann konnte die Software auf allen Rechnern das gleiche – egal ob sie auf einem Pentium oder 386 er lief.

Continue reading „Neue Prozessoren und neue Software“

Raketenentwicklung inkrementell

Bei der Softwareerstellung gibt es eine Reihe von Vorgehensweisen: Sie tragen so phantasievolle Namen wie Wasserfall-Modell, V-Modell oder Extreme Programming (XP). Eines davon ist das Spiralmodell. Ziel ist es recht bald eine erste Version der Software zu haben, die dann geprüft und erweitert werden kann. Da man iterativ und inkrementell sich an die Endversion heranarbeitet. Anders als bei anderen Modellen verbessert man inkrementell die Software, was vor allem das Scheitern eines Softwareprojektes senken soll.

Continue reading „Raketenentwicklung inkrementell“