Die Computerbranche bescheisst!

Ja anders kann man es nicht nennen und es geht so seit mindestens 30 Jahren: Die meisten Angaben bei Computern sind falsch.

Basierend auf dem Binärsystem nachdem Computer arbeiten gibt es folgende Gesetzmäßigkeiten:

  • 1 kilobyte = 1.024 Byte
  • 1 megabyte = 1.048.576 Byte
  • 1 gigabyte = 1.073.741.824 Byte
  • 1 terabyte = 1.099.511.627.776 Byte

Da die Vorsilben, „giga“, Nega“ und „tera“ im normalen Leben nicht vorkommen gibt es auch keine Verwechslung mit Begriffen aus dem Alltag wo ja kilo für 1.000 steht. Eine Ausnahme sind die Funkfrequenzen, aber diese haben ja auch nichts direkt mit den Computern zu tun und wenn dann dort von GHz die Rede ist, so weis man dass es nicht 1.073 Milliarden Herz sondern nur 1 Milliarden Hertz sind.

Während nun bei Speicher in einem 1 gbyte RAM auch tatsächlich rund 1.073 Milliarden Speicherzellen drin sind, hat es sich eingebürgert in zahlreichen Produkten falsche Angaben zu machen. Eine 2 Tb Festplatte enthält eben nur 2.000.000.000.000 Bytes – und nicht 2.199.023.255.552 Bytes – das sind immerhin fast 200 gbytes oder 10% zu wenig!

Natürlich hat eine 12 Megapixelkamera auch keine 12.582.912 Pixel, sondern nur 12.000.000. Meistens aber weniger Hier wird sogar noch etwas unverschämter gelogen, denn nur die Schärfeninformation stammt aus diesen Pixeln. Die Farbinformation teilen sich jeweils 4 Pixel, weil auf dem Chip eine Bayer-Maske mit je zwei grünen und einem roten und blauen Pixel ist und aus diesen 4 Pixeln die Farbinformation gewonnen wird. Diese Schummelei gibt es selbst bei teuren SLR Kameras. So hat eine Nikon D90 12.212.224 P Pixels im Bild und wird als „12.3 Megapixelkamera“ beworben – da hat man nochmals aufgerundet und so den Benutzer um rund 685.000 Bildpunkte (immerhin fast so iel wie die noch vor 10 Jahren übliche Standardauflösung von 1024 x 768 Pixels) betrogen.

Noch schlimmer wird das wenn es um den Nutzbaren Anteil geht. Meistens wird dieser nämlich gar nicht angegeben. Bei Onboard Grafikkarten belegen diese einen Teil des Arbeitsspeichers. Nur findet man diese Angabe fast nie bei den Produktbeschreibungen. Es gibt auch heute noch Computer mit 3 oder mehr Gbyte RAM, die mit einer 32 Bit Version von Windows ausgeliefert werden und die dann nur 3 Gbyte oder etwas mehr (hängt von dem Motherboard ab) nutzen können.

Das ist ja nichts neues: Schon bei den Heimcomputern wurde immer das Gesamt-RAM angegeben, nie der freie Teil. Bei der ersten Heimcomputergeneration war die Differenz noch klein, so 1-2 kbyte z.B. beim VC-20 und Ti 99/4a. Als dann Geräte mit Bitmap Grafik kamen, belegte die je nach Gerät weitere 6 bis 16 kbyte, dazu kamen Puffer für Diskettenlaufwerke, Sprungvektoren fürs Bankswitching und zack waren von 64 kbyte noch je nach Gerät 37 bis 42 kbyte übrig, also gerade mal zwei Drittel dessen was versprochen wurde.

Das ist allerdings nicht nur eine Spezialität der Heimcomputer sondern auch die Betriebssysteme schluckten was. CP/M war sparsam und belegte nur 5,5 kbyte. MS-DOS 1.0 schon 12 kbyte. Die MS-DOS 2.0 Version schon 47 kb. Das war bei den ersten MS-DOS Rechnern mit 64 bis 256 kbyte Speicher schon mal ein Viertel des Arbeitsspeichers. Das ist bis heute so geblieben. Wenn mein Windows 7 startet sind nach dem Booten schon mal über 30%, mithin bei mir rund 1,2 gbyte Speicher weg. Okay, Windows ist nicht mit MS-DOS zu vergleichen: findet es mehr Speicher vor, so belegt es mehr Speicher für Diskcaches oder bald DLL’s die kurz vorher benötigt wurden und nun eben nicht meehr und wird er knapp wird der Speicher frei gegeben. Aber die Tendenz ist klar

Es wäre wieder mal Zeit für ehrliche Angaben wie formatierte Kapazität in gängigen Maßeinheiten (auch populär in der Computersteinzeit war es bei Floppdisklaufwerken die unformatierte Kapazität anzugeben) und bei Betriebssystemen und anderen Systemen mit variablen Anforderungen eine Liste was mindestens belegt oder gefordert wird und was zum zügigen arbeiten reicht. Wer mal die Systemanforderungen von Programmen gelesen hat weiss was ich meine: Oftmals stehen da für Programme so niedrige Werte, dass das Programm noch startbar ist, man aber damit nicht arbeiten kann.

5 thoughts on “Die Computerbranche bescheisst!

  1. Dazu kommen noch weitere Mogeleien, wie „interpolierte Auflösung“ oder Digitalzoom.
    Oder die Geschwindigkeit von RAM-Modulen. Hier wird generell die theoretisch erreichbare Übertragungsrate genannt, die jedoch durch immer mehr Wartezyklen niemals erreicht wird.
    Nicht ganz so schlimm ist der Wahn, immer mit möglichst großen Zahlen zu protzen bei der Übertragungsgeschwindigkeit. Selbst wenn die richtigen Werte angegeben werden, dann aber in Bit pro Sekunde statt in den üblichen Byte pro Sekunde.
    Übrigens ein Trick, den die Festplattenhersteller bei der Speicherkapazität noch nicht verwenden. Damit lassen sich ohne jede technische Änderung die Zahlenwerte verachtfachen. 8 Terrabit statt 1 Terrabyte klingt doch schon mal nach viel mehr. Und es gibt sicher genug DAUs die darauf reinfallen.
    Oder wie wäre es, die Speicherkapazität in Millibit oder Mikrobit anzugeben? Ist zwar völlig sinnlos, ergibt aber beeindruckend große Zahlen.

  2. Bei Kosmetika bei denen Produkte deren Herstellung pro Liter wenige Euro kosten und die dann in Milliliterportionen für 50 Euro verkauft werden ist das schon gängig….

    Auch Druckertinte wird nur noch in ganz kleinen Milliliterpartonen verkauft – mit Preisen die umgerechnet auf 1 l etwa 2.000 bis 3.000 Euro betragen. Die Tinte habe ich beim Bescheissen noch ganz vergessen, das ist eigentlich der größte Betrug.

  3. Warum sollte sich die Rechnerbranche anders verhalten als z.B. die Lebensmittelbranche?
    Die „irreführung“ ist ein legitimes Werbemittel.

    Ingenieure entwickeln einen Rechner der definierte Eigenschaften aufweist. Wenn man sie nach den Eigenschaften, wie z.B. wieviel Arbeitsspeicher hat das Gerät, fragt antworten sie völlig korrekt „es sind xxBytes an Arbeitsspeicher verbaut“. Das ist technisch völlig korrekt, es beschreibt nur nicht den „Kundennutzen“ (z.B. wieviel Arbeitsspeicher kann ich nutzen) sondern die „Eigenschaft“ (es sind xxBytes an Abeitsspeicher verbaut) eines Gerätes.

    Bei komplexen Systemen ist das häufig so. Der Kunde möchte Kennzahlen haben um verschiedene Systeme miteinander vergleichen zu können, ohne sich mit der innewohnenden Komplexität beschäftigen zu müssen. Der Hersteller möchte sein Produkt als möglichst gut präsentieren. Dazu ist aber der Kundennutzen bei komplexen Systemen zu subjektiv und angreifbar. Also nimmt man den kleinsten gemeinsamen Nenner, die nachprüfbaren Eigenschaften des Gerätes. Ob diese Eigenschaften etwas mit dem Kundennutzen zu tun haben ist zweitrangig.

    Die Anzahl an Pixel die ein CCD Chip hat ist nachprüfbar. Die Art und Weise wie aus den Pixeln die Bilddaten gewonnen werden (z.B. Farbfiltermasken) ist komplex und kann sich von Hersteller zu Hersteller unterscheiden. Also nimmt man für den Vergleich lieber die Anzahl an Pixeln des Sensors.

    Von dieser Diskrepanz zwischen nachprüfbaren Eigenschaften und Kundennutzen leben ganze Zeitschriften. Diese Zeitschriften machen meist nichts anderes als die „Rohinformationen“ der Hersteller mit den kompexeren Zusammenhängen zu verknüpfen um daraus den eigentlichen Kundennutzen abzuleiten.

    Das initiale Thema der Festplattengröße sollte allerdings seit 1996 erledigt sein. (siehen http://de.wikipedia.org/wiki/Byte) Der „Betrug“ liegt darin begründet das die Hersteller von Arbeitsspeicher aus praktischen Erwägungen Zahlenpräfixe die für Zahlen zur Basis 10 gedacht sind für Zahlen zur Basis 2 mißbraucht haben.
    Genau genommen muß man also nicht den Festplattenherstellern Betrug vorwerfen, denn sie verwenden die Präfixe Normgerecht. Man sollte sich über den Gewinn an Arbeitsspeicher durch den Mißbrauch der Vorsilben freuen. Denn schließlich wären 1kByte RAM normgerecht nur 1000Bytes, aber man bekommt 1024Bytes, also 24Bytes geschenkt.

    Selbst bis 1996 kann man den Festplattenherstellern keinen Betrug vorwerfen, da es sich bei einer Festplatte nicht um einen binär adressierten Datenspeicher handelt. Wenn man den grundlegenden Aufbau betrachtet ist eine Festplatte nämlich kein Speichermedium das eine direkte Adressierung zuläßt. Durch in die Festplatten eingebaute Logik wird nach außen eine direkt Adressierbarkeit lediglich simuliert. Daher kann man bei Festplatten auch nur eine mittlere Zugriffszeit angeben, bei direkt und binär Adressiertem Arbeitsspeicher hingegen kann die Zugriffszeit exakt und nicht nur im Mittel angegeben werden.

  4. So ganz richtig ist das nicht. Zwar unterscheiden sich festplatten und Arbeitsspeicher gravierend im Aufbau und es ist nicht so wie beim Arbeitsspeicher, dass man Festplatten nur in bestimmten Kapazitäten bauen kann die bei DDR-Riegeln eben immer um den Faktor 2 ansteigen.

    Aber intern arbeiten die Festplatten nach wie vor mit 512 Byte Sektoren (neuere auch mit 4096 Byte Sektoren) – das ist 2^9 und 2^12 – also eine binäre Adressierung, die natürlich vom Betriebssystem und Altlasten vorgegeben ist.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.