Software und ihre Preise

Loading

Auf das heutige Thema kam ich als ich mich kürzlich mit der Geschichte von MITS und den Anfängen von Microsoft nochmals beschäftigt habe. Der Aufhänger war, dass die erste Software von Microsoft, das Altair BASIC, für 350 bzw. 500 Dollar ohne Kauf einer Speichererweiterungskarte für den Altair verkauft wurde und mit sank der Preis unter 100 Dollar. Meine bisherige Ansicht war, das MITS, bzw. Edward Roberts der Firmeneigentümer, den Preis so hoch setzte, damit er seine Speichererweiterungskarten verkaufen konnte, die unzuverlässig waren. Im Prinzip fuhr man billiger, wenn man eine Karte mit BASIC kaufte, als wenn man das BASIC alleine kaufte.

Aber so war dem nicht. Der Preis wurde von Bill Gates so festgelegt und als sie sich von MITS gelöst hatten, war ihr erstes Produkt FORTRAN-80 und das verkauften sie auch für 500 Dollar. Zeit mal zu beleuchten, was das besondere an Software ist und wie sich das auf die Preise auswirkt. Continue reading „Software und ihre Preise“

Hardwarefirmen, Softwarefirmen oder Dienstleister – wer ist am erfolgreichsten

So, nach einer Woche mal wieder ein neuer Blog. Nicht, dass ich nichts zu schreiben hätte, aber geht mehr in Richtung Meinung und wie ich den fehlenden Kommentaren entnehme interessiert die ja nicht so viele. Ich habe zwei neue Artikel geschrieben über die Versionen von DOS und Windows, und weil ich die auch ausprobiert habe, folgt noch einer wie man selbst eine virtuelle Maschine aufsetzt.

Auf beides hat mich die jährliche Retro-Ausgabe der ct‘ gebracht, die aber dieses Jahr extrem an Niveau verloren hat. Die meisten Redakteure haben von dem, was sie schreiben keine praktischen Erfahrungen mehr. Das zeigt sich daran das man alle Heimcomputer – inklusive des Altair 8800 in einen Artikel geworfen hat, auch meine CPC Serie – immerhin nach C64 und Spectrum die dritterfolgreichste Serie bei den Heimcomputern. Im Grafikkartenartikel werden 10 Jahre Entwicklung in zwei Absätzen abgehandelt, mit noch dazu falschen technischen Daten und sich dann seitenweise über jede noch so kleine Änderung bei 3D-Beschleunigerkarten ausgelassen. Ich dachte mir darüber einen Artikel zu schreiben, doch wie schon gesagt, das ist eben nur Meinung. Continue reading „Hardwarefirmen, Softwarefirmen oder Dienstleister – wer ist am erfolgreichsten“

Software wird schneller langsam, als Hardware schneller wird

Dieses von Nikolaus Wirth beschriebenen Phänomen wird inzwischen auch als „Wirthsches Gesetz“ bezeichnet. Demnach wird der Fortschritt bei der Hardwareentwicklung durch immer ineffizienter programmierte Software ausgeglichen. Nun ganz so schlimm würde ich es nicht sehen. Aber ich will mal dieses Thema aus einer anderen Perspektive aufgreifen. Und zwar will ich die Stationen der Benutzerfreundlichkeit von Anwendungen bei PC’s Revue passieren lassen.

Als die 8-Bit-Rechner einen Hauptspeicherausbau von annähernd dem Maximum was adressiert werden konnte, so 48 bis 64 Kbyte hatten, konnte man mit CP/M die ersten Anwendungsprogramme betreiben. Wer mal mit Wordstar, DBASE oder Multiplan gearbeitet hat, weiß aber auch von den Einschränkungen. Wordstar hatte kryptische Tastenkombinationen. Formatierungen gab es als Steuerzeichen auf dem Bildschirm und genauso wie bei Multiplan konnte man beim Scrollen sehen wie sich jede Zeile neu aufbaute. Dbase lieferte Datensätze langsam zurück, 1-2 pro Sekunde. Continue reading „Software wird schneller langsam, als Hardware schneller wird“

Ja, Computer werden langsamer!

Gestern habe ich mal wieder nach meinem Namen gegoogelt. Ich mache das ab und an. Wobei ich mich auf die Links in Groups beschränke. Die anderen Links sind praktisch nicht mehr nachzuvollziehen, da es über 10.000 derer gibt. Neben einem glühenden Plichta Anhänger (leider bar jeder Grundkenntnisse von Thermodynamik) bin ich auch auf ein Statement gestoßen bei dem jemand mal so philosophiert wie ich es gerne tue.

Continue reading „Ja, Computer werden langsamer!“

Neue Prozessoren und neue Software

Ich habe gerade einen Bericht über die Architektur von Intels neuem Prozessor Core I7 gelesen. Er führt wieder neue Befehle ein, mit denen man z.B. Strings besser vergleichen kann und die Stringlänge schneller bestimmen. Vor allem gibt es wieder Hyperthreading und neue Hardware Features, wie das komplette Stilllegen von Kernen oder das Hochtakten der anderen Kerne wenn einige stillgelegt sind.

Das ganze erinnert mich an eine Grundproblematik, die wir eigentlich seit dem Pentium II haben. Bis dahin war es so, dass die Prozessoren die Befehle immer schneller ausführten, entweder weil sie weniger Takte pro Befehl brauchten oder die Taktfrequenz anstieg. Es gab gravierende Erweiterungen in der Architektur: Mit dem 80286 den Protected Mode und eine 16 MByte Adressierung und mit dem 386 den vollen 32 Bit Modus mit 32 Bit Registern und 32 Bit Adressierung. Aber: Software musste dafür entwickelt werden und dann konnte die Software auf allen Rechnern das gleiche – egal ob sie auf einem Pentium oder 386 er lief.

Continue reading „Neue Prozessoren und neue Software“