PC Evolution – Teil 2

Ich denke ich muss in meinem Blog mal nachlegen und zwar zu dem Thema PC-Entwicklung. Es gab da ja schon ein paar gute Beiträge. Ich will heute mal aufzeigen, wo es hakt.

Fangen wir mal bei der Architektur an: Sie ist sicher nicht ideal, da gewachsen. Aber Intel & AMD haben ihre Nachteile inzwischen ganz gut in den Griff bekommen und es wäre illusorisch eine neue Prozessorarchitektur zu fordern. Alle Versuche eine neue zu etablieren sind gescheitert (i860, Itanium) und die vielen Konkurrenten die es mal gab, aber auch Sekond-Source Hersteller die es mal gab sind vom Markt verschwunden. Kann sich noch jemand erinnern wie viele Firmen 386er Prozessoren fertigten?

Was gerne vergessen wird: Mit jeder Verkleinerung der Technologie steigen die Kosten für die Produktion an. Eigentlich fertigen nur noch AMD, IBM und Intel Prozessoren im derzeit aktuellen 32 nm Prozess. Das andere Architekturen gerade erst mal zu Dualcoreprozessoren übergehen oder die 1 GHz Grenze überschreiten, liegt schlicht und einfach daran, dass für Embedded Prozessoren man nicht die Erlöse bekommt wie für eine CPU in einem PC oder Großrechner und sich die Herstellung so schneller IC mit den entsprechenden Aufwendungen für die Fertigung nicht rentiert.

Das GHz-Rennen, das haben sicherlich die meisten schon mitbekommen, ist nun auch zu Ende. Die 3,8 GHz eines Pentium 4, die schon 2004 erreicht wurden, sind bislang nicht übertroffen: Bei jedem Schaltvorgang fließen unerwünschte Ströme und je öfter umgeschaltet wird (eben abhängig von der Taktfrequenz) desto höher sind sie. Man muss bei Intel & AMD nur einmal in einer Reihe von Prozessoren gleicher Energie schauen, wie da die maximal abgegebene Wärme (TDP) mit der Taktfrequenz zunimmt – und zwar nicht linear sondern exponentiell.

Wer die PC-Technik genauer studiert, bemerkt dass einige Parameter nur noch kaum ansteigen – die Größe von Festplatten, die maximale Taktfrequenz. Ich bleibe auch bei der Meinung, dass mehr Kerne nicht so viel bringen und zwar gerade deswegen weil ich programmiere. Wenn ich meine Programme Revue passieren lasse, dann finde ich zwar das eine oder andere zum Paralellisieren, aber eben nur bestimmte Teile. Der Großteil läuft asynchron. Warten auf den Anwender. Auch die Beispiele die genannt wurden: Wie oft werden PDF’s geblättert? 5 Minuten am Tag? Hat sich dann doch echt gelohnt. Die meiste Zeit dreht doch schon heute der Prozessor Däumchen. Nur für kurzzeitige Einsatzzwecke enorm viel Rechenleistung vorzuhalten die man 90, 99% der Zeit nicht braucht ist doof. Viele Leute sind mit einem Netbook mit Atom Prozessor glücklich – das ist in etwa so schnell wie ein 1 GHz Pentium 4. Im Vergleich dazu ist schon ein normalen Dual-Core mit 2-2,6 GHz enorm schnell. Er dreht schon heute meistens nur Däumchen. Daher der Vorschlag beide Technologien zu kombinieren. Der Atom für wenig Stromverbrauch beim Warten und ein Dulacore Prozessor für die Zeiten der Lastspitze. Dekodieren/Enkodieren von Videos kann besser ein Chipsatz erledigen, denn das ist eine Spezialaufgabe mit festgelegten Algorithmen die man in Silizium gießen kann.

Wenn jemand das was heute bei Prozessoren gemacht wird bei anderen PC Komponenten geschehen würde, dann würde man das als Verschwendung bezeichnen. Nehmen wir mal an sie bauen vier Festplatten in ihr System ein. Eine benötigen sie laufend, eine zweite ab und an belegen sie aber nie zu mehr als 30% und die anderen beiden dann zu einigen Prozent ab und an für Zwischendateien. Jeder würde sagen, „da reicht Dir doch eine oder zwei“. Nur genau so ist die Auslastung eines Quadcoresystems über die Betriebsdauer gemittelt.

Vor allem geht es aber darum die Strombilanz zu verbessern, auch wenn PC-Technik in Unterhaltungselektronik einziehen soll. Das in vielen Geräten schon aus Kostengründen Embedded-IC’s zum Einsatz kommen werden dürfte klar sein. aber noch träumen AMD und Intel vom Massenmarkt Multimedia-PC: Zu jedem normalen PC noch ein Multimedia PC der an den Fernseher angeschlossen wird und nur zum Anzeigen und Abspielen von Filmen, Fotos und Musik dient, verbunden mit dem normalen PC als Server oder einem Netzwerkspeicher. So ein Gerät muss flach und schick sein, ist dauernd an und darf wenig Strom konsumieren. Viel Rechenleistung wird nur beim Dekodieren/Kodieren von Videos benötigt und das können heute Spezialchips oder Chipsatzlösungen besser als die CPU. Analoges gälte für einen PC als Steuerung der Hauselektronik, wie es seit Jahren angepriesen wird – ich glaube nicht dran, aber auch ein solches Gerät wurde dauernd laufen aber vergleichsweise wenig Rechenleistung erfordern.

Derzeitige PC’s haben einen Nachteil: Sie sind für alle Eventualitäten gebaut. Das bedeutet ein typischer MIDI-Tower wie meiner erlaubt den Einbau von zwei 5,25″ und vier 3,5″ Laufwerken. Er hat vier Steckplätze für Karten. Dass machte vor 20 Jahren noch Sinn, als Druckerschnittstelle und serielle Schnittstelle auf einer Karte waren, Festplattenkontroller und Vega Karte ebenfalls Dabei wurden die Geräte viel länger benutzt weil sie auch teurer waren.

Sicher gibt es heute noch Server die so viele Laufwerkschächte brauchen und es gibt Gamer die zwei Karten einbauen, jede blockiert zwei Slots. Ich würde aber sagen: Der Großteil der Anwender rüstet vielleicht noch eine Festplatte nach oder eine Karte. Eigentlich legt schon die Wahl des Prozessors fest wie aufgerüstet wird: Wer einen Mittelklasse PC der 500 bis 600 Euro Klasse kauft wird den nicht um 400 Euro Grafikkarte erweitern. Das macht keinen Sinn, zumal der PC ja laufend der aktuellen Technik hinterherhinken wird.

Warum also nicht PC’s mit Netzteilen bauen die der erwartbaren Minimalbelastung Rechnung tragen: 200-250 W reichen bei einem Büro-PC aus. Da der Wirkungsgrad absinkt, wenn ein Netzteil nur mit einem Bruchteil der Maximalleistung betrieben wird, wird auch hier Strom verschwendet. Vor allem aber könnten auch die Gehäuse kleiner werden. Weg von den uniformen Kosten zu kleineren Geräten die vielleicht wieder unter dem Monitor verschwinden.

Vielleicht beleuchte ich das auch mal aus der Softwaresicht.

Der gestrige Blog ist ja nicht so angekommen, aber so ist es nun mal: Es gibt unterschiedliche Interessen. Ich hätte mir ja mehr Gastblogs von den Dauerlesern gewünscht, aber manch einer fühlt sich bei einer ironischen Aufforderung zu mehr aktiverBeteiligungja schon beleidigt. Liegt wohl an der Konsumgesellschaft.

11 thoughts on “PC Evolution – Teil 2

  1. Ich kenne aus meinem Bekanntenkreis nur einen, der sich ein Desktop-Rechner gekauft hat. Die meisten haben sich Notebooks geholt. Hier ist der Stromverbrauch inkl. Monitor meist < 30W. Das schöne ist, hier gibt es eine riesen Auswahl und für jeden Geschmack und Geldbeutel etwas. Notebooks werden auch meist so gekauft, dass sie dass können was man braucht. Weiterhin ist man nicht an einen Platz gebunden. Man kann es mit auch die Couch und auf den Schoß nehmen, mit in den Garten, etc… Auch auf Arbeit hat die letzten Jahre keiner mehr ein Desktop gekauft, ausschließlich Notebooks.
    Das Powermanagement von Notebooks ist ja gerade zum Energiesparen ausgelegt. Wie erwähnt ist die Auswahl an Ausstattung groß. Was die Ergonomie angeht ist es nat. Geschmacksache. Mir persönlich wiegt der Vorteil der Flexibilität (auf Couch, Schoß, …) sämtliche Nachteile, wenn es sie denn gibt, auf.

  2. Für mich kommt das nicht in Frage. Ich empfinde eine richtige Tastatur und Maus angenehmer als die in Notebooks eingebauten, ich sehe nicht besonders gut und habe dann Probleme mit den kleinen Bildschirmen und der Tastatur direkt daran. Die Vorteile mit Mobilität ziehen bei mir nicht, weil ich sie nicht brauche.

    Ich weis das Notebooks verkauft werden wie die Semmeln, aber ich denke die meisten wären auch mit einem Desktop zufrieden. Interesanterweise ist Notebook-Technik in desktoprechnern so teuer, dass man sich von dem Geld ein Notebook kaufen könnte (und dass ist immer noch mobiler und man hat ein Display mit dabei).

  3. Genau genommen sagt die Verordnung über Bildschirmarbeitsplätze, dass es möglich sein muss, Monitor und Tastatur getrennt voneinander einzustellen. Damit dürften da eigentlich keine Notebooks verwendet werden. Ich persönlich würde das für meinen Arbeitsplatz auch nicht akzeptieren, weil ich dann entweder Krämpfe in den Schultern bekomme (wenn das Notebook so hoch steht, dass der Blick auf den Schirm angenehm ist) oder Krämpfe im Nacken, wenn es für die Arme angenehm ist, ich aber schräg nach unten auf den Schirm schaue.
    Meine Beispiele waren übrigens nicht so gemeint „wofür brauche ich viele Kerne“, sondern eher „was kann ich mit den Kernen sinnvolles anstellen, wenn sie sowieso schon mal da sind“.
    Das Netzteil ist übrigens ein kritisches Bauteil: wenn gleichzeitig Motor der Festplatte und des Dvd-Brenners anlaufen, es Sommer ist und der Rechner sowieso heißer ist und damit das Mainboard mehr Strom zieht, kann man durch kurze Einbrüche der Versorgungsspannung lustige Abstürze erleben, nach deren Ursache man lange suchen kann. Habe ich schon bei vielen Rechnern erlebt. Ein wenig Reserve ist da durchaus angebracht.

  4. Seit einigen Jahren etabliert sich eine neue Klasse stationärer PC’s und Mainboards, die Deiner Kritik Rechnung tragen: Die Netttop-PCs, Mini-PCs und Mini-ITX-Mainboards.

    Nettops haben die Größe einer Zigarrenschachtel und lassen sich mitunter mittelst genormter VESA-Halterung hinter den Flachbildschirm schrauben.

    Mini-PCs haben ein Gehäuse im Schuhkarton-Format, also wie ein Midi-Tower mit ca. 12cm Höhe und einem 5,25″ Laufwerks-Schacht. Sie sind für Mini-ITX-Boards (170*170mm) konstruiert, die hinten liegend (waagerecht) montiert werden.

    Mini-ITX-Boards gibt es in mannigfaltigen Varianten v.a. von der Firma Zotac mit aufgelötetem Atom-Prozessor und passiven Kühlkörpern. Besondere Bekanntheit erreichten die Boards mit leistungsfähiger NVIDIA ION-Grafik mit HD-Fähigkeit und HDMI-Ausgang.
    Mini-ITX-Boards beschränken sich naturgemäß auf einen Steckkartenslot, das ist meist ein PCI, oder PCIe x1 oder PCIe x16-Slot.
    Zotac führt sogar ein Board mit integriertem Netzteil. 6 Kanal Soundchip, optische Ausgänge, GBit LAN, WLAN und Bluetooth prädistinieren diese Boards für Unterhaltungseletronik oder neudeutsch Home Entertainment.

    Relativ jung ist die Klasse der Mini-ITX-Boards, die eine Plattform für ganz normale Desktop-Prozessoren bietet. Auf dem Markt gibt es mittlerweile 2 solche Boards mit Sockel AM3 für die AMD K10-Prozessoren.

    Mit dem ersten dieser Boards (Sapphire IPC) habe ich mir einen relativ sparsamen und fast lautlosen Mini-PC gebaut. Leider unterstützt das Board nicht alle bekannten Stromsparmechanismen, und so kommt der Rechner auf einen Leerlaufverbrauch von 40W. Mit PowerDownMode, C1E und Phasenabschaltung wären 18W drin gewesen.

    Im nächsten Beitrag (der vielleicht im Spam-Ordner landet) füge ich noch mal einen Link ein über die Baugeschichte dieses Mini-PCs.

  5. Den Mac-mini gibt es seit Jahren, klein wie nix, preislich attraktiv und seit Apple von IBM und deren PowerPC-Prozessoren weg ist und auch Intel verbaut, läuft auch Windows problemlos drauf, wenn man denn möchte.
    Lautlos, Tastatur ist egal, dito Maus.
    Wird sehr gerne als Server eingesetzt, auch für größere Anwendungen.

    Ich habe hier eine Doppel-Prozessor-Maschine mit 2 G5 zu 1,8 GHz, die ich noch nie ausbremsen konnte, sie wird jetzt 7 Jahre alt. Gut, es stecken noch zwei IBM/Motorola-Prozessoren drinnen, aber es langt dicke für alles, was ich brauche.

    Der Unterschied zu einem aktuellen iMac mit entsprechender software ist beim Kompilieren der Zeitaufwand: hier 24 Sekundenmit dem alten Rechner, @work 3,5 Sekunden. Who cares: in Urzeiten – also vor 15 Jahren – dauerte das mal 20 Minuten, da konnte man sich echt was anderes vornehmen.

    TV im Arbeitszimmer schaue ich auf einem alten beigen G3, der ist so alt, da war Steve Jobs noch gar nicht wieder bei Apple. Grund: hardware und software funktionieren einwandfrei UND: die alte iiyama-Röhre hat ein so schönes Bild 😀

  6. Interessante Ansichten, bei vielem stimme ich auch zu, aber nicht bei allem. Also mal der Reihe nach:

    Die Architektur der Prozessoren ist sicherlich nicht optimal. Aber das haben sich die Anwender der frühen PCs selbst zuzuschreiben, weil sie eben auf die 8086-Architektur gesetzt haben, anstatt auf die 68000er, bzw. 6800er. Dann gab es bei den Anwendern teilweise auch eine gewisse Arroganz in Sachen Verwendbarkeit, bzw. des gewählten Systems getreu dem Motto: „Das ist doch eine Spielkiste, – damit kann man keine ernsthaften Anwendungen betreiben!“ wobei aber nur auf die Namen der Computer geguckt wurde, und nicht auf die technischen Daten. – Aber das ist Schnee von gestern, sich darüber aufzuregen lohnt nicht mehr, weil es sich nicht mehr ändern lässt.
    Zu den aktuellen Entwicklungen, speziell bei den Strukturbreiten stehe ich auf dem Standpunkt, das man bei den Strukturbreiten nicht nur ein bisschen langsamer vorgehen sollte, sondern viel langsamer, und vor allem endlich das ominöse „Moorsche Gesetz“ als statistische Kuriosität betrachten sollte, aber nicht als wirkliches Gesetz, das erst so langsam seine Gültigkeit verliert.
    Damit wären wir dann auch wieder bei den Endanwendern, wo der Prozessor bildlich gesprochen tatsächlich die meisste Zeit Däumchen dreht. Da sind die hohen Taktfrequenzen wirklich nicht nötig. Aber hier wäre es dann auch mal Aufgabe der Softwareindustrie, den Ballast aus den Programmen zu entfernen, den zum einen nur eine Minderheit von Anwendern braucht, der aber andrerseits die Software immer mehr aufbläht und immer mehr Rechenleistung verlangt. Das die Softwareentwicklung der Hardwareentwicklung hinterher hinkt, halte ich für natürlich. – Man beobachtet(e) aber auch, das teilweise die Softwareindustrie mit Wünschen und Forderungen an die Hardwareindustrie heran tritt, die letztlich auf immer höhere Rechenleistung hinaus laufen. Grundsätzlich ist dagenen erst mal nichts einzuwenden, aber wenn dann Firmen wie Apple oder Microsoft mit Ansprüchen der Art kommen, „Ohne diese Leistung können wir unser neues GUI-Design nicht umsetzen“, dann sollte die Hardwareindustrie erst mal mauern und auf Zeit spielen, nach dem Motto: „Dann habt ihr eben Pech gehabt! – Dann überlegt Euch gefälligst wie Ihr die Software so optimiert, das sie auch mit weniger Resourcen auskommt.“ Wie die Entwicklungen bei Embedded Systems zeigen, geht es. Man muss es nur wollen.

    Noch mal zu den Strukturbreiten: Wenn man die langsamer verkleinern würde, (und vor allem auch der Patentwahnsinn nicht wäre) dann könnten auch noch mehr als drei Firmen PC-Prozessoren herstellen, die dem Stand der Technik entsprechen. Das würde den Markt sicherlich auch noch anders gestalten als er zur Zeit ist.

    Dass das GHz-Rennen zu Ende ist, ist auch gut so. Aber an dessen Stelle haben wir ja jetzt den K(r)ampf der vielen Kerne, und es wird wohl auch noch einige Zeit brauchen, bis auch die letzten Manager und Werbestrategen kapiert haben, das viele Anwender im Grunde mit Singlecore CPUs auskommen würden, die dann allerdings keiner mehr herstellen wird.
    Was die Parallelisierbarkeit angeht, so ist es doch eine Grunderkenntnis der Informatik, das sich nicht alles parallelisieren lässt. – Aber wahrscheinlich handelt es sich dabei noch um Expertenwissen und nicht um Allgemeinwissen. Dann wäre es u.a. eine Aufgabe von uns, d.h. den Bloglesern, die das i.d.R. wissen dürften, diese Erkenntnis weiter zu verbreiten, damit sie zu Allgemeinwissen wird.

    Den sogenannten Multimedia-PC gibt es doch schon, wenn man ihn denn haben will. Aber er funktioniert ja immer noch suboptimal, weil immer wieder alte Konzepte aus der PC-Steinzeit das System ausbremsen. Und die sogenannten Set-Top-Boxen, von denen die Firmen träumen, halte ich für eine Illusion (bzw. Schwachsinn), aber nicht für eine Revolution der Technik. – Okay, es gibt sie schon, aber ich bezweifele, das sie sich im grossen Stil durchsetzen werden. Sie werden eine Nische bleiben. Dazu fällt mir jetzt auch wieder das CDTV von Commodore ein. Okay, das Ding ist gefloppt, weil es seiner Zeit zu weit voraus war. Aber heutzutage?

    Hausautomatisierung, bzw. Hauselektronik ganz allgemein, da stimme ich zu, wird sich auf Spezialchips entwickeln, und im Embedded Systems Bereich bleiben. Also verschiedene Controller die über ein Bussystem der Automatisierungstechnik ihre Steuer- und Statusdaten mit einem zentralen Steuergerät austauschen, das die gesamte Installation überwacht. Das zentrale Steuergerät, evtl. auch einzelne, damit verbundene Komponenten, können auch mit einer PC-Schnittstelle ausgerüstet sein, aber die Zeiten, in denen man dafür einen ganzen PC in Beschlag nimmt, die sind vorbei. (Möglicherweise wird sich da eher eine SPS-Lösung durchsetzen, da diese bei grösseren Gebäuden mit umfangreicher Haustechnik ja eh schon eingesetzt werden.)

    Was den PC selbst angeht, so bin ich trotzdem noch ein Fan des Universalgerätes im Big-Towergehäuse mit vielen Steckplätzen und Laufwerksschächten, das unter dem Tisch verschwindet. Da fände ich es eine interessante Lösung, wenn man die Laufwerke für Wechseldatenträger in ein separates Gehäuse packen würde, das man dann auch unter den Monitor stellen könnte. – Oder gleich in den Fuss des selben verlagern. Dann könnte man den Rest des PCs auch noch weiter unter den Tisch verschwinden lassen, und bräuchte auch zum Datenträger wechseln keine Verrenkungen mehr zu machen. – Ansonsten halte ich von Desktop-PCs nach wie vor nicht viel.
    Oder man gestaltet auch das Gehäuse modular, etwa so, wie es beim RISC-PC von Acorn der Fall war. (Der war sowieso in mehrfacher Hinsicht Genial, aber dazu ein andermal.)

    Zum Stromsparen sollte man generell dazu übergehen, die aus dem Notebookbereich stammende Spartechnik auch serienmässig in den Desktopbereich einzuführen. Das würde den Energieverbrauch sicher auch erheblich drosseln. Dann müsste die Grenze zwischen HeimPC und Server möglicherweise wieder etwas schärfer gezogen werden, aber das ist eine andere Sache und meiner Ansicht nach auch nicht tragisch.

    Die Betrachtung aus der Softwaresicht würde mich übrigens auch noch interessieren… 🙂

  7. Ein ganz kurzer Kommentar von mir zum Thema „Multimedia und PC“: Ich weiss nicht, ob ich der einzige bin, dem das auffaellt, aber seitdem Videos vornehmlich mit PCs abgespielt bzw. aufgenommen werden, hat die Qualitaet von Videowiedergabe rapide abgenommen.

    Man muss nur mal bei Burger King sich den Flachbildschirm ueber der Theke angucken: Das ruckelt wie eine Diashow.

    Beim Flachbildschirm im Supermarkt dagegen stottert der Ton UND es ruckelt wie eine Diashow.

    Wenn ich bei meinen Eltern das digitale Fernsehen angucke, sehe ich ueberall sich bewegende Motion-Bloecke mit JPEG-Artefakten.

    Sorry, aber ich finde, mit VHS war Video besser 😉

  8. Ich hab anfangs auch gedacht, dass für die meisten ein Desktop reichen würde. Aber inzwischen sitzt keiner mehr an nem Klotz in der Ecke. Das NB wird da verwendet wo man bequem sitzt bzw. wo man es gerade braucht.
    Gut, was Tastatur und Maus angeht bin ich IBM-Thinkpad verwöhnt. Die Tastaturen, zumal ohne M.m.n. sinnlose Windo$-Tasten, sind sehr angenehm zu tippen. Ich bin kein Fan von Mäusen. Die liegen immer im Weg rum oder man hat kein Platz aufm Tisch/Schoß/woauchimmer um die vernünftig zu bedienen. Der Trackstick ist direkt auf der Tastatur, wodurch man den und die Tastatur gleichzeitig bedienen kann. Was die Ergonomie von NBs angeht, da ich meine Position am Schreibtisch regelmäßig ändere und nicht starr vor einem Bildschirm hocke, bleibt der Abstand zum Monitor und zur Tastatur beim NB immer gleich. Wie gesagt, das ist Geschmacksache. Ich kann das auch nur Thinkpads sagen.

  9. @Alexander

    Das Ruckeln bei Videowiedergabe ist ein generelles Problem, weil die Wurzeln der PC-Entwicklung immer noch in den USA liegen, dem 60Hz-Land.

    Videomaterial im europäischen Raum basiert von der Bildfrequenz her großteils auf die vom CCIR Mitte des letzten Jahrunderts festgelegten Fernsehnormen und deren Ablegern PAL und SECAM: 50Hz

    Dummerweise beherrschen nun geschätzte 90% der für den PC-Bereich entwickelten Flachbildschirme und Panels extern und/oder intern nur Bildfrequenzen (alias Frame Rates, Refresh Rates, fps) ab 60Hz. Das ist eine der Altlasten im PC-Bereich: Das ursprüngliche VGA war dem amerikanischen NTSC entlehnt: 60Hz und ursprünglich 640*480.

    Das hat beim PC als TV- und Videoabspieler folgende Auswirkung: Das native 50Hz-Material muß vom Grafikchip auf 60Hz umgefrickelt werden. Da 60Hz kein ganzzahliges Vielfaches von 50Hz ist, werden bei dieser Wandlung 1/6 der Ursprungsbilder doppelt abgetastet, so daß das feine Ruckeln entsteht.

    Lösung: Konsequent nach Monitoren/Displays/Beamern recherchieren, die nativ 50Hz entgegennehmen und intern verarbeiten. So habe ich es bei meinen Monitoren gemacht (z.V. Viewsonic VX2260WM) und werde es auch beim Beamer machen. Es klappt wunderbar. Man kann bei n24 den Laufschrift-test machen: Die unten eingeblendete Laufschrift läuft seidenweich.

    Zu den Supermarkt-Displays: Dillenantischer gehts kaum noch. Bei uns im Kaufland ist z.B. ein 40″ Display über der Rolltreppe, was über VGA (!!!) angeschlossen ist (Rauschen und Geisterbild inclusive), es läuft mit Sicherheit mit 60Hz und mit Overscan (keine native Auflösung)

    Für solche Dinge fehlt in der Allgemeinheit einfach das Bewußtsein, und da heißt es dann schnell mal „Digital sieht scheiße aus“

  10. @Verkehrsvision: Danke fuer Deinen ausfuehrlichen Beitrag 😉

    Bitte reg Dich jetzt nicht allzusehr auf, aber mein Beitrag war schon als leichte Provokation gedacht. Ich habe selber einige Musik- und Produktvideos produziert und weiss deshalb auch, warum diese Ruckelei entsteht, aber jetzt hast Du’s wenigstens fuer die Allgemeinheit nochmal erklaert 😉 😉

    Ich wollte mit meinem bewusst naiv formulierten Beitrag einfach mal aufzeigen, wie erstaunlich es ist, dass heute die halbe Welt von Technologie beherrscht wird (und nicht umgekehrt), die keine Sau mehr richtig versteht, bedient oder einsetzt, und sich dadurch unterm Strich die Qualitaet von Dienstleistungen verschlechtert.

    Ist sowas aehnliches wie bei elektronischer Kommunikation: Frueher gab es Fax, das war praktisch 100% zuverlaessig, weil jede Firma wirklich ein physikalisch existierendes GERAET an der Telefonleitung hatte und dieses keine Viren/Trojaner/Spamfilter etc. hatte und DIREKT die Pieptoene, die ankamen, in Temperatur umgesetzt hat, die dann das Papier geschwaerzt hat.

    Dann gab es die erste Eskalationsstufe: Das waren Faxe, die das eingehende Fax schon in einem internen Computer „gespoolt“ haben und erst DANACH ausgedruckt haben. Da war schon die erste unsinnige Fehlerquelle.

    Eskalationsstufe 2 war dann, dass die Leute ihr Faxgeraet in die Tonne gekloppt haben und dann mit DEM PC Faxe empfangen haben. Da dann die Fax-Software staendig abgestuerzt ist, oder die PCs ausgeschaltet wurden etc., sank damit die Zuverlaessigkeit auf 90%.

    Eskalationsstufe 3 erlebe ich gerade bei einer Kundin: Die hat gar kein Fax mehr und meint „Nee, wir machen heute alles per E-Mail“.

    Als ich ihr dann letztens eine wichtige E-Mail schickte und sie voellig verdutzt ein paar Tage spaeter anrief, was denn nun mit dem Projektfortschritt waer, sie haette ja gar nichts von mir gehoert, da hab ich ihr empfohlen, sich vielleicht doch wieder ein ganz altmodisches Fax anzuschaffen 😉

    Ja… ich bin schon komisch…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.