Was an mir vorbeigegangen ist – jenseits der Biologie und Physik

Loading

In der neuen, lockeren Reihe „Was an mir vorbeigegangen ist“ schreibe ich mal meine Meinung zu bestimmten Dingen, die sich etabliert haben, und die ich anders sehe. Im heutigen Beitrag geht es um die Entwicklung von Dingen die mit Computern zu tun haben und die ich eben etwas anders sehe.

An und für sich können Computer eigentlich niemals zu schnell sein, genügend Speicher oder Massenspeicher haben. Vielleicht nutzt man nur einen Teil davon, aber was solls? Anders sieht es aus, wenn es um die Interaktion mit dem Menschen geht, dann gibt es eine Grenze die durch unsere Sinne vorgegeben ist und bei der „besser“ keinen Zugewinn bringt, außer vielleicht in der Werbung. Eventuell gibt es sogar Nachteile wie unsinnig große Dateien oder verrauschte Bilder. In einem Falle sorgt die Physik sogar dafür, das mehr schlechter ist als weniger.

Ich fange mal mit einem einfachen Beispiel an, wo wir diese Grenze noch nicht erreicht haben, aber nahe dran sind. Das ist die Entwicklung der Auflösung von Druckern. Die ersten erschwinglichen Drucker, die es für „persönliche Computer“ gab waren Matrixdrucker oder Nadeldrucker – es gab natürlich schon Drucker mit exzellentem Schriftbild – umgebaute Scheinmaschinen oder Fernschreiber. Durch deren Typen aus Metall ist ihr Schriftbild natürlich exzellent. Aber sie konnten eben nur Text ausgeben, keine Grafik und waren auf die Typen beschränkt die verbaut waren. Bei der Generation der 7 und 9 Nadeldrucker war eine Nadel 1/72 Zoll groß, in der Sprache der Computer betrug die Auflösung 72 dpi, „dots per Inch“ – Punkte pro Zoll (25,4 mm). Hier ist das sogar direkt verständlich: Jede Nadel erzogt einen Punkt auf dem Papier. Das war grob und leicht erkennbar, auch weil nur die Spitze einen Punkt erzeugte und die Nadel an der Basis breiter ist, die Nadeln sich aber nicht berühren dürfen, so einen kleinen Abstand zueinander haben, denn schließlich sind sie unabhängig voneinander ansteuerbar. Es resultierte das typische löchrige Schriftbild eines Nadeldruckers dieser Zeit.

Die zweite Generation von Nadeldruckern, beseitigte diesen Mangel, indem sie zwar immer noch 9 Nadeln verwandte, aber jede Zeile mehrmals gedruckt wurde, dabei wurde zwischen dem Druck das Papier um eine halbe Nadelbreite verschoben. Zusätzlich wurde auch in der Horizontalen halb so schnell gedruckt, dafür doppelt so viele Punkte gesetzt. Dieses Verfahren – „Near Letter Quality“m, NLQ abgekürzt, reduzierte die Geschwindigkeit von 120 auf 30 Zeichen pro Sekunde, aber erhöhte die Punktdichte auf 144 dpi. Text in NLQ hatte keine Abstände mehr zwischen den Nadelabdrücken, das Schriftbild war optisch dicht. Nur an den Rändern konnte man noch erkennen, das es aus Nadeln aufgebaut wurde.

Die dritte Generation setzte dann 24 Nadeln ein, jede kleiner als bei einem 9 Nadeldrucker, in zwei Rahen um eine halbe Nadelbreite versetzt. Dadurch entfiel das mehrfache Drucken und die Druckgeschwindigkeit stieg an. Diese 24-Nadeldrucker erreichten nun 216 dpi, was als „Letter !Quality“, LQ gepriesen wurde. Aber echte „Schriftqualität“ ist noch etwas besser. Dieses Attribut schrieb man den ersten Laserdruckern zu, die 300 dpi erreichten. Das ist die Grenze wo das menschliche Auge bei dem typischen Betrachtungsabstand keine Punkte mehr erkennen kann. Die Auflösung des Auges wird als 1 Bogenminute angegeben. Das entspricht dem 1/3438– sten Abstand vom Betrachtungsobjekt. Bei 300 dpi also 3430 / 300 = 11,45 Inch, da ein 1 Inch 25,4 mm sind , entspricht dies 291 mm. Also aus rund 30 cm Abstand ist bei 300 dpi das Schriftbild makellos. Bei größerem Abständen, wie z.B. Reklamewänden, kann es durchaus gröber sein, weil man diese ja aus größerem Abstand betrachtet. Ebenso – darauf komme ich noch zurück – gilt das auch beim Betrachten von Fotos oder Bildschirmen.

Neben der Auflösung spielt auch die Drucktechnik eine Rolle. Laserdrucker gelten bis heute als der Standard bei der Auflösung. Tintenstrahldrucker fallen ab, weil bedingt durch das Druckverfahren Satellitentröpfchen entstehen, die den Kontrast an den Konturen absenken. Das wurde durch kleinere Düsen inzwischen aber deutlich verbessert. Doch die 300 dpi als Letter Quality gelten nur für reinen Schwarz-Weißdruck. Schon bei Graustufen benötigt man eine höhere Auflösung. Graustufen entstehen dadurch das man einen Teil der Fläche nicht bedruckt. Ein Drucker mit 600 dpi der Bilder mit 300 dpi ausdrucken soll, kann die nur halb so großen Pixel auf einer 2 x 2 Matrix unterbringen. Auf diese Matrix kann er 0,1,2,3 oder 4 der Pixel drucken und erhält so fünf Graustufen bei halbierter Auflösung. Mit 1200 dpi Druckauflösung für ein 300 dpi Bild sind es dann 17 Graustufen (16 ohne weiß). Man sieht, man benötigt dann schnell eine höhere Auflösung. Allerdings dürften 16 Graustufen in der Praxis ausreichen. Mehr erkennt man als Abstufung auf dem Papier nicht. Bei Farben geht man genauso vor. Wobei hier noch dazukommt, das man zwar Farben übereinander drucken kann und so mischen kann – bei den drei Grundfarben der subtraktiven Farbmischung: Gelb, Cyan und Magenta kommt so auf sieben Farben plus Weiß: Gelb, Cyan und Magenat als Grundfarben, Grün, Blau und Rot als Mischfarben aus zwei Farben und Braun als Mischfarbe aus allen dreien (rein theoretisch sollte schwarz herauskommen, doch das setzt voraus das die Pigmente spektral-rein sind und alle Farben die gleiche Intensität haben, was nie der Fall ist). Dabei werden die Farben durch die subtraktive Farbmischung immer dunkler. Hellere Farben als die Grundfarben bekommt man so nie, auch hier erreicht man die Farbmischung durch sehr kleine Punkten und weißer Fläche. So stieg die Zahl der Düsen seit dem ersten Markterfolg der Tintenstrahldrucker, – dem Deskjet 500c von 50 auf 300 bis 600 Düsen. Um vor allem Farben mit geringer Sättigung zu drucken, wurden auch Tinten mit geringer Sättigung eingeführt. Während normale Drucker vier Patronen haben (Gelb, Cyan und Magenta plus Schwarz) kommen solche Fotodrucker auf sechs bis neun Patronen. De fakto erreichen Tintenstrahldrucker durch die feinen Düsen und Mischung von Farben heute Fotoqualität, Laserdrucker dagegen in der Regel nicht – sie lösen weniger stark auf und vom Funktionsprinzip her können sie Farben nur schlecht mischen. Beim Farbdruck hat man also auch die Grenze erreicht, die die Biologie vorgibt – zumindest bei den geeigneten Tinten und Papieren, bei billigem Papier und Tinte verlaufen die Farben auf dem Papier ineinander und das Fotos sieht dann doch recht dunkel und grob aus.

Nach dem Ausflug bei den Druckern der Sprung zu den Ausgabegeräten wo inzwischen die Technik besser ist als unsere Sinne. Ich fange mal mit der Auflösung von Monitoren an.

Die ersten Heimcomputer hatten eine Auflösung von 256 x 192 bis 320 x 200 Pixeln die auf einem Farbfernseher oder kleinen (12 Zoll) Monitor dargestellt wurden. Da ist leicht errechenbar über die obige Formel, das man jedes Pixel leicht erkennt. Weil der Monitor deutlich kleiner als heutige Monitore waren, saß man auch näher dran, aber selbst in 1 m Abstand hätte ein 12 Zoll Monitor etwa 600 x 800 Pixel auflösen müssen, damit man die Pixel nicht erkennt. Doch seitdem ist die Auflösung laufend angestiegen. Es kam (wenn ich mal den PC-Bereich als Referenz nehme) 1984 die EGA Auflösung (640 x 350 Pixel), 1987 VGA (640 x 480), 1989 Super-VGA mit 800 x 600, später 1024 x 768 Pixeln. Die Größe der Monitore wuchs dagegen nur langsam, von 12 auf 17 Zoll, das lag an der Bauweise, Röhrenmonitore werden in der dritten Potenz zur Diagonale schwerer. So wurde das Pixelraster immer feiner. Richtig schnell wuchsen die Diagonalen von Monitoren erst mit der Einführung von Flachbildschirmen Anfang dieses Jahrtausends. Seitdem steigen die Auflösungen auch schneller. Heute ist ein 4K Monitor (3840 x 2160 Punkte) von 27 bis 32 Zoll Diagonale bezahlbar. Höher geht es auch – 8 K Monitore von 32 Zoll Diagonale kosten aber noch über 1.000 Euro. Bei einem 32 Zoll Display beträgt die Auflösung dann 137 (4K) bzw. 275 dpi (8K). Das ist weitaus feiner als das Auge auflösen kann, zumal man vor den grö0ßeren Displays auch weiter weg sitzt, sonst kann man die Diagonale gar nicht überblicken. Bei 1 m Abstand kann gemäß obiger Formel das Auge rund 0,3 mm auflösen, das sind nur 87 dpi, also wesentlich weniger als die 137 bzw. 275 dpi. Oder anders gesagt: man muss bei einem 4K Monitor mit 32 Zoll Diagonale auf 64 cm heranrücken um als Normalsichtiger mit 100 % Sehschärfe die Pixels noch zu erkennen und bei einem 8K Monitor sind es nur 32 cm.

Kleiner Tipp am Rande: Wer unter Windows arbeitet – Spiele die den vollen Bildschirm nutzen ausgenommen – sollte Monitorgröße und Auflösung so wählen, dass er mit der 100 % Skalierung auskommt. Das liegt an der beschuggten Skalierung von Windows. Hat man z.B. 4 K Auflösung beim Monitor und skaliert auf 150 Prozent, dann vergrößert Windows nicht Schriften und Elemente wie Schieberegler, sondern es rendert ein Bild in 2560 x 1440 Punkten (x 150 % = 3840 x 2160 Pixel) und sendet dieses Bild an den Monitor, der es dann skaliert. Da dieses Bild aber nicht seiner physikalischen Auflösung entspricht ist das Bild unscharf. Zudem verschenkt man die Auflösung des Monitors, man hätte einen billigeren Monitor mit 2560 x 1440 Punkten kaufen können und 100 % Skalierung wählen. De Fakto macht bei Monitorgrö0ßen von 24 bis 27 Zoll, das ist meistens das Maximum was auf einen Schreibtisch geht, für die meisten so normale HD Auflösung ausreichend, das sind 91 bzw. 103 dpi und entsprechen so mehr der biologischen Auflösung des Auges.

Denselben Effekt hat man mittlerweile bei Smartphones. Sie müssen höher auflösen, weil man sie näher am Gesicht hält, aber wenn das mit 90 Grad Winkel in dem Ellenbogen geschieht, dann liegt die Distanz zum Auge unter 50 cm, näher als 30 cm wird man kaum kommen, weil man die Smartphones sonst kaum bedienen kann. Die Auflösung des Augen entspricht bei den Distanzen von 50 bzw. 30 cm 174 bzw. 290 dpi. Diese benötigte Auflösung schlagen Spitzenmodelle leicht. In der aktuellen ct’ wurden Spitzen-Smartphones getestet, die lösen je nach Modell zwischen 418 und 642 dpi auf. Ein Modell, das Sony Xperia 1 IV löst auf 6,5 Zoll Diagonale 3.840 x 1.644 Punkte auf, also fast 4K bei einem fünftel der Diagonale eines 32 Zoll Monitors. Der Sinn eine Auflösung zu haben, die besser ist als die des Auges ist mir entgangen, denn man hat ja keinen Zugewinn, die Pixel kann man nicht sehen, eher einen Nachteil weil viele Programme mit festen Systemschriften it festen Größen arbeiten und die Texte so immer kleiner werden.

Etwas anders gelegen ist die Pixelmannia bei Kameras, egal ob als aussterbende Gattung der Digitalkameras oder Handykameras. Hier ist die Pixelzahl physikalisch begrenzt. Das Prinzip ist relativ einfach: Jedes Pixel hat eine bestimmte Fläche, auf der in einer bestimmten Zeit je nach Lichtstärke, eine bestimmte Zahl an Photonen eintreffen. Diese schlagen Elektronen aus einer Halbleiterschicht heraus die in einer Speicherschicht landen. Diese Elektronen erzeugen dann einen messbaren Strom, der verstärkt wird und letztendlich den Helligkeitswert ergibt. Für Farbbilder gibt es eine Bayes-Maske auf dem Chip die nur Licht einer der drei Grundfarben durchlässt und so weiter die Helligkeit reduziert. Jeder Chip hat aber ein thermisches Grundrauschen, und das macht bei immer weniger Photonen (weil die Pixelfläche sinkt) immer mehr aus und man erkennt es an einem Rauschmuster über den Fotos oder wenn es extrem ist, einzelnen Pixeln mit abweichender Helligkeit. Softwarealgorithmen können es reduzieren, doch dann verliert das Bild an Schärfe. Wie groß ein Pixel sein muss, hängt von der Beleuchtungssituation und der Qualitätsanforderung ab. In der Raumfahrt wo ich mich auskenne, haben die Pixels in der Regel 6 x 6 bis 14 x 14 Mikrometer Fläche. Die Kamera der Raumsonde DART z.B. 6,5 x 6,5 Mikrometer. Je nach Distanz von der Sonne müssen die Pixels größer werden um noch genügend Licht einzufangen und die Objekte bewegen sich oft gegenüber der Kamera, sodass geringe Belichtungszeiten ein Muss sind.

Spiegelreflexkameras für Profis im 35 mm Format (Vollformat) haben bis zu 46 MPixel auf 36 x 24 mm Fläche, – das sind aber bei der Chipgröße immerhin noch 4,3 x 4,2 Mikrometer pro Pixel.

Sinken die Ansprüche an minimales Rauschen bzw. minimaler Belichtungszeit oder der Fähigkeit auch in Innenräumen ohne Blitz sehr gute Bilder zu bekommen, so können die Pixels kleiner werden. Doch schon als vor mehr als 10 Jahren die Pixelgrößen rapide wuchsen, zeigte sich das trotz Tricks die Qualität der Bilder immer weiter abnahm. Als Optimum ermittelte man damals für die damals üblichen 1/1,7 Zoll Sensoren (7,6 x 5,7 mm Fläche) 6 MPixel, das entspricht einer Pixelfläche von 2,55 x 2,55 Mikrometern.

Davon sind wir lange entfernt. In Smartphones finden wir die unglückliche Kombination von kleinen Sensoren – weil man keine große Optik verbauen kann und vielen Pixels, weil die Leute ja auf die Pixelzahlen schauen. Die Spitze ist ein von Samsung entwickelter 200 MPixel Sensor, der nur 0,56 x 0,56 Mikrometer große Pixels hat. Der ist auch im Motorola Edge Ultra verbaut. Er fängt 21-mal weniger Licht ein, als das „6 MP Optimum“ und 57-mal weniger als der höchste-auflösende Sensor einer Spiegelreflexkameras für Profis. Selbst ein nicht besonders toller Sensor wie der Sony IMX219 der in der winzigen Raspberry Pi V2 Kamera steckt hat mit 1,12 x 1,12 Mikrometern noch die vierache Fläche pro Pixel.

So viele Pixels kann man noch unter optimalen Bedingungen nutzen, also bei einem Sonnentag um 12 Uhr mittags, ansonsten nicht. Bei den meisten Herstellern sind dies auch nur Marketing-Auflösungen, in der Praxis addieren die Smartphones mehrere Pixel und reduzieren so die Auflösung auf ein Viertel oder noch weniger. Dieses „Binning“ ist auch bei Profis verbreitet, aber es liefert nicht die gleiche Bildqualität eines größeren Sensors, weil so auch das Rauschen addiert wird. Nebenbei sind die Fotos in dieser Auflösung auch unpraktikabel – die 200 Mpixel ergeben 40 bis 70 MB große JPG-Dateien die man zwar noch auf eine Karte speichern kann, aber schnell durchzappen geht bei den normalen Übertragungsraten nicht und es gibt kein Medium, die Fotos in voller Auflösung zu betrachten oder gar auszudrucken. Zugegeben ist das Motorola Edga ein Ausreißer. Die anderen Luxussmartphones im obigen Test beggügen sich bei der Hauptkamera mit maximal 50 Mpixel und die anderen Kameras (heute hat ein Smartphone ja meistens zwei bis drei liegen bei 12 Mpixel. Das ist immer noch mehr als ausreichend – mehr las jeder Monitor und jedes Display darstellen kann und bei einem 300 dpi Ausdruck wäre dieser bei 12 Mpixeln schon 240 x 360 mm groß.

Noch mysteriöser ist die Mannie nach Superleistungen bei Gamern. Diese scheinen samt und sonders Supermenschen zu sein. Hier geht es um die Bildwiederholfrequenz. Reichen 70 Hertz oder sollen es 120 oder 144 sein? ja sogar 240 Hz habe ich ei Monitorangeboten schon gesehen. Also auch hier mal zuerst die Grundlagen. Das menschliche Auge nimmt mehr als 16 Bilder pro Sekunde (Hertz) als fließende Bewegung wahr. Film und Fernsehen arbeiten seit einem Jahrhundert mit 24 bis 25 Hertz, hohen das sich jemand über eine zu geringe Frequenz beschwert hätte. Aber man erkennt bei Röhrengeräten ein Flimmern, und zwar, weil diese Frequenz für die Zapfen gilt, die Sensoren in der Netzhautmitte die fürs Farbsehen zuständig sind. Die Stäbchen an der Peripherie sind nicht nur lichtempfindlicher, sie erkennen auch schnellere Bildwechsel. So etablierte sich bei Röhrenmonitoren, wo jedes Pixel durch einen Elektronenstrahl angeregt, nur kurz aufleuchtet auch die Forderung nach 70 Hz Bildwiederholfrequenz, zumindest aber besser als 60 Hz. Wo dies nicht technisch möglich war, beschichtete man die Monitore so, das sie noch eine Zeitlang nachleuchteten. Für Spiele, wo man gebannt auf eine Szene schaut, gilt diese Grenze aber nicht. Niemand hat sich bei früheren Spielen (z.B. von einem C64 dargestellt auf einem Farbfernseher mit 25 Hz) über zu wenige Frames pro Sekunde beschwert. Das Auge ist zwar, wenn das Gesichtsfeld großer als der Bildschirm ist, irritiert durch das wahrnehmbare Flimmern, aber niemand bezog die Bildwiederholrate auf die Reaktionszeit, also man bei Spielen schlechter dasteht weil der Monitor zu wenige Bilder pro Sekunde anzeigt.

Heute ist das anders, obwohl bei Flachbildschirmen wo die Pixel ständig leuchten, das Flimmern also wegfällt. Es gibt genügend Leute die Stein und Bein schwören, das sie in Spielen mit 144 Hz besser da stehen als bei 72 Hz oder gar 50 Hz. Dabei hat die Bildwiederholrate gar nichts mit der Reaktionszeit die für Spiele wesentlich ist, zu tun. Die wird dadurch bestimmt, das das Signal zum Gehirn kommen muss, dort verarbeitet werden und dann eine motorische Reaktion (Fingerbewegung) erfolgen muss. Bei einfachen Lichtsignalen (Blitz) kommt man auf minimal 130 ms. Bei einem Spiel wo eine Figur erkannt, eine Entscheidung getroffen und dann komplexe Befehle für die Bewegung der Maus oder des Joysticks gesendet werden müssen, ist die Reaktionszeit noch länger. Gerichte billigen bei Unfällen im Straßenverkehr 1 Sekunde als Reaktionszeit zu. Aber selbst wenn wir nur die 130 ms Minimalzeit nehmen, so sind 130 ms fast zehnmal länger als die Zeit zwischen zwei Bildern bei 72 Hz. Da macht es nichts aus, wenn diese Zeit dann halbiert ist bei 144 Hz. Da Grafikkarten einen Datenstrom erzeugen muss, der sich aus dem Produkt Bildwiederholrate x Auflösung ergibt, würde ich also eher eine geringe Framerate und höhere Auflösung nehmen als eine höhere Framerate oder eine teurere Grafikkarte. Die 144 Hz oder gar 240 Hz dürften die meisten Grafikkarten sowieso nur bei älteren Titeln mit geringeren Hardwareanforderungen erreichen, ansonsten macht es keinen Sinn, einen Monitor zu kaufen der mehr Frames pro Sekunde darstellen kann, als die Grafikkarte rendert.

Soweit mein Ausflug in das Reich der Superauflösungen und Megapixel jenseits dessen was biologisch oder physikalisch sinnvoll ist. Im nächsten Beitrag in dieser Kategorie mache ich mich besonders beliebt, es geht um das Smartphone.

3 thoughts on “Was an mir vorbeigegangen ist – jenseits der Biologie und Physik

  1. Der ganze Hype um immer bessere Werte…
    Ich frag mich auch immer, warum man denn nun ein S,4marphone mit 4k aufloesung oder 120hz display braucht? In reviews hoert man immer: angeblich alles so viel smoother. Ich bin ganz ehrlich, hatte letztens ein ues MSartphone in der Hand, das switchen konnte zwischen 90Hz und 120Hz Display wiederholrate.
    Ich hab keinen Unterschied erkennen koennen…
    Auch ein Grund, warum ich immer noch meinen Uralt Samusng Fernseher benutze.
    War damals noch was besonderes mit 1920 Full HD / 40Zoll / Amoled (bin hier auch nur vom Roehrenfernseher weg, weil ich nach Thailand umzog und da brauchte ich halt einen neuen).
    Seitdem hab ich mir zwar mal den einen oder anderen 4k Fernseher angeschaut, aber das Bild ist in der Tat nur sehr nah dran wirklich besser. Ich sitze aber normalerweise um die 2.5m bis 3m weit weg und da macht das 4k Bild nur wenig mehr her. Man muesste dann schon einen sehr grossen Bildschirm kaufen.
    Warte also bis der hier kaputt geht, aber bisher hat der noch keine Pixelfehler, also bleibt mein alter stehen.
    Bei Smartphones, ist ein guter Nebeneffekt des ganzen Zahlen Hypes, das man heute sehr gute Geraete fuer sehr wenig Geld bekommt. Schlechter Nebeneffekt, ist der ganze elektro muell….
    Auch Laptops (fuer mich recht essentiell) profitiert man, von gut ausgestatten Units mit normalen Displays etc., fuer gute Preise, allerdings nicht so stark wie bei Smartphones.

    Leute wundern sich hier immer ueber meine Haltung in diesen Punkten, da ich eigentlich ein ‚Technik-Freak‘ bin, aber ich denke da wie du: Wozu, wenn man physikalisch garnicht in der Lage ist, das gekaufte zu erleben??

  2. Bei Monitoren wäre es doch schön, welche mit 200-300 dpi Auflösung zu haben.

    Mein Problem ist das Antialiasing von Schrift, was mich bei Monitoren stört.
    Bei klassichen Fonts, die von Hand gezeichnet sind, und die nur schwarze und weiße Pixel enthalten ist alles gut.
    Bei skalierbaren Fonts haben diese, wenn ein Strich breiter als ein Pixel ist, aber schmaler als zwei Pixel, einen grauen Rand statt einen harten Schwarz-Weiß Übergang. Und dieser graue Rand läßt die Buchstaben matschig aussehen und stört bei schwarzen Buchstaben auf weißem Grund.

    Vieleicht arbeiten deshalb mehr und mehr Leute wieder mit einem inversem Bildschirm, also heller Schrift auf dunklem Grund, da das Problem da nicht so stark auftritt,

  3. Ich habe das Gefühl das das häufig folgendermaßen funktioniert. Erst mal wird das ganze mit möglichst wenig Technischen aufwand umgesetzt, so das es gerade für den durchschnittlichen Menschen bei günstigen Bedingungen einen guten Eindruck macht. Dann wird die Technik billiger. Man verbesser die Technische Leistung um wieder den alten Preis erzielen zu können. Das ganze macht auch Sinn, denn es gab Situationen wo das Minimum eben nicht gereicht hat. Das macht man über mehre Schritte. Aber irgendwann ist man an einer Stelle wo die Steigerung nur noch Marketing ist.

    So, jetzt muß ich mich erst mal mit dem über 400MB großen Konfigurationsprogramm meiner neuen Tastatur beschäftigen. Ob ich durch die 16,8 Millionen darstellbaren Farben der Tastaturbeleuchtung wohl schneller und fehlerfreier und nicht ganz so wirr Tippe 😉

Schreibe einen Kommentar zu Sebastian Jakubzik Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.