Wann kommt die PC-Evolution?

Als ich vor einiger Zeit für den Kauf meines neuen Taschenrechners das Casio Sortiment angesehen habe, war ich erstaunt, dass ich dort noch Modelle finde, die ich schon in meiner Schulzeit kannte. Nehmen wir den FX-82, den bekam ich als ich in die Oberstufe bekam, also 1982 und deswegen heißt er wohl so. Er wird seitdem weitgehend unverändert produziert.

Das gleiche gilt für andere Modelle. die Palette hat Casio nach oben hin abgerundet, mit noch mehr Funktionen, Programmierbarkeit oder grafischen Fähigkeiten. aber mir zeigt es etwas deutlich: auch elektronische Geräte können den Zustand erreichen, wo sie nur noch graduell verbessert werden: Wer einen wissenschaftlich/technischen Rechner sucht findet tatsächlich im FX-82 alle Funktionen. Was später dazu kam (Lineare Regression, Rechnen in anderen Zahlensystemen, Umrechnungsfunktionen und Konstanten ist ja ganz nett, aber für andere Zwecke nötig.

Ich sehe viele Anzeichen, dass auch PC’s langsam in diese Phase der Vervollkommnung erreicht. Zwar läuft weiter das Kernrennen – immer mehr Kerne auf einem Chip, derzeitiger Stand 8 und 12 bei Intel/AMD. Aber man hat nichts mehr davon. Bei einem normalen Nutzer ist es nun mal so, dass der PC meistens wartet, Wer ein Text eintippt, der beansprucht den Prozessor für minimale Zeit wenn mal ein Buchstabe eingetippt wird, wer surft, der beansprucht ihn wenn eine Seite geladen wird. Mag sein, dass Software das trickreicher macht indem sie Seiten schon vorausschauend lädt, aber es ändert das nichts an der Tatsache, dass der PC weitgehend nichts tut. Ich habe mal während ich das hier tippe den Performance Monitor laufen lassen und gebe das Ergebnis hier wieder.

Schon heute sind mehr als Zwei Kerne nur selten nützlich. Der zweite ist noch von Nutzen weil so ein Kern immer für den Benutzer vorhanden ist und einer für Hintergrundprozesse wie Virenscanner. So empfiehlt sich für Gamer, da auch Spiele nur selten mehr als zwei Kerne nutzen eher ein hochgetaktetes Dualcoresystem. Eventuell legt Intel die Idee seines Larrabeeprozessors ja mal wieder auf – er sollte 64 – 256 einfache Cores enthalten die mehr den Recheneinheiten einer GPU ähneln. Da beim Consumer PC mehr als zwei Cores nicht mehr Leistung bringen, vor allem Gamer und Videoschnitt aber immer die Anwendungen sind, die viel Rechenleistung benötigen wäre es viel sinnvoller viele einfach gestrickte Recheneinheiten wie in einer GPU zu betreiben als noch mehr komplexe Cores.

In vielen anderen Dingen sehe ich auch nur evolutionäre Änderungen. Windows 7 ist schicker. Aber die Veränderungen in Benutzersteuerung, Anbindung neuer Hardware etc., also der für den praktischen Einsatz abseits von optischen Gesichtspunkten wesentliche Teil, der benötigt nicht mehr Rechenleistung als XP.

Wohin die Reise nun gehen wird ist meine Ansicht nach mehr Integration und noch geringerer Stromverbrauch. Der Weg zur Integration ist schon deutlich sichtbar. Intel und AMD integrieren in ihre CPU schon mehr und mehr Chipsatzfunktionen. Seit Jahren ist bei AMD ein teil des Speichertransfers integriert, nun geht es weiter mit den Grafikkerrnen die auch deutlich leistungsfähiger werden. Ich denke in ein paar Jahren kann man wirklich von einem System on a Chip (SOC) sprechen, so wie man es schon von Smartphones kennt.

Das erlaubt es PC’s kleiner und preiswerter zu bauen. Nicht nur für Embedded Systeme oder Multimediasysteme sondern auch normale Büro-PC könnten davon profitieren. Vielleicht kommt ja mal wieder der Heim -PC in der Tastatur. Geräte integriert im Monitor gibt es ja schon.

Das zweite ist das Stromsparen. Es hat sich viel getan, doch noch immer brauchen PC’s selbst wenn sie nichts tun 30 Watt, dazu kommt noch der Monitor mit 20-30 W je nach Größe. Das klingt nach nicht viel, aber bei mir läuft der PC mindestens 12 h am Tag. Das sind übers Jahr gerechnet 260 kWh, wobei ich eher denke dass es 400 kWh sind, da ich zwei Monitor betriebe und nicht das absolute Stromsparsystem habe. Das ist mehr als ein Zehntel unseres Stromverbrauchs.

Bei den Prozessoren hat sich da schon einiges getan, aber es ist noch verbesserungswürdig. Hier ein paar Vorschläge: Intel hat mit dem Atom einen Stromsparprozessor im Programm, der selbst bei maximaler Last weniger Strom verbraucht als ein Mehrkernprozessor im Leerlauf. er ist langsam – aber für das entgegennehmen von Tastendrücken reicht es. Da heute Prozessoren innerhalb von Millisekunden aktiviert werden können, warum wird nicht ein Atom Kern integriert – die anderen Kerne schalten dann meistens und sind abgeschaltet. So kann man das beste aus beiden Welten – Hohe Leistung und niedriger Stromverbrauch kombinieren. Das nächste ist dann der Chipsatz. Auch hier sehe ich Chancen in der Integration in den Prozessor. Es ist dadurch eine engere Zusammenarbeit gegeben und dadurch auch eher die Möglichkeit die Teile abzuschalten die momentan nicht benötigt werden.

Dazu gehört auch dass z.B. der Ruhezustand die Standardeinstellung ist – warum jedesmal neu booten, wwenn sich die Hardware doch nicht ändert. Ein Herunterfahren sollte eigentlich nur bei Software/Hardwareupdates nötig sein. Leider hat die Nutzung des Ruhezustandes („Suspend to Disk“) bei Windows 7 stark verschlimmbessert – es braucht bei Abschalten der Stromversorgung viel länger zum Restaurieren als ein Reboot.

Dasselbe wird auch für die Grafikeinheiten gelten, die ja nun auch integriert werden sollen. Bisher waren Grafikkarten ja keine Energiesparer. Warum auch? Wer Hunderte von Euro für maximale 3D Leistung investiert, den juckt die Stromrechnung nicht. Alle anderen vielleicht schon. Auch hier gilt: Die meisten nutzen keine 3D Grafik. 70% aller PC’s werden mit Onboard Chipsatz betrieben, nur 30% haben eine eigene Grafikkarte und ich wette, die meisten davon die Einstiegs oder Mittelklasse. Auch hier: Die Chance die Einheiten nur dann zu aktiveren wenn man sie braucht und den Stromverbauch zu senken. Vielleicht kann man dann wieder zu passiv gekühlten Systemen zurückkommen – zumindest für viele einsatzzwecke wo geringe bis mittlere Rechenleistung benötigt wird. Das sind meist auch PC’s die nie aufgerüstet werden und weder Steckplätze noch fünf Laufwerksschächte benötigen – Chancen es kleiner und kompakter zu bauen.

Vielleicht investiert die Industrie dann auch mal mehr in andere Dinge, z.B. Lebensdauer. Es sollte möglich sein einen PC auch nach einigen Jahren aufzurüsten, ohne dass sich Standards für Schnittstellen oder RAM und Prozessor-Sockel sich änderten. Vor allem sollte an der Haltbarkeit der Komponenten gearbeitet werden. Vor allem die Elektrolytkondensatoren auf den Motherboards scheinen heute nur eine Lebensdauer von einigen Jahren besitzen. PC-Systeme sollten wie Unterhaltungselektronik eine Betriebsdauer von mindestens 10 Jahren besitzen. Keiner meiner letzten beiden PC’s lebte so lang. Nach etwa vier Jahren fiel immer irgendwas aus.

Kann sich noch jemand an die Zeit der Heimcomputer erinnern? An die Zeit des Apple-II, C64 oder CPC-464? Jedes dieser Geräte wurde über Jahre hinweg produziert, nur eben immer billiger. Ab und an gab es auch leicht verbssserte, aber softwarekompatible Nachfolgemodelle, wie beim Apple den Apple II+, Apple IIe und Apple IIc. Beim C-64 den C128 oder C-64 II, beim CPC wäre hier die Reihe CPC 464/664 und 6128 zu nennen. Ich selbst habe meinen ersten CPC 464 1985 für 900 DM gekauft, als er 1989 kaputt ging den nächsten für 300 Mark. Warum sollte es bei PC’s heute nicht anders gehen – wenn die Leistung ausreicht und die Nachfrage vorhanden ist?

33 thoughts on “Wann kommt die PC-Evolution?

  1. Es gibt bei PCs aber immer noch viele revolutionaere Verbesserungsmoeglichkeiten und -bedarf, jedoch sehe ich diese auch in evolutionaeren Zeitraeumen nicht kommen 😉

    Wieso braucht man z.B. immer noch zig Antivirenscanner und Firewalls, die staendig und teuer geupdated werden muessen, wieso kommen staendig irgendwelche Dialoge, ob man dies oder jenes wirklich tun will, wieso ist ein praktisch nutzloses Kommunikationssystem (E-Mail) heute der absolute, exklusive Standard bei elektronischer Kommunikation, obwohl es so massive Probleme hat (Spam, Spamfilter, Viren, Trojaner), dass die Zuverlaessigkeit inzwischen fuer kommerzielle Zwecke sehr zweifelhaft ist? Wieso kann man im Jahre 2010 immer noch keine groessere Datei als 10 MB per E-Mail verschicken, ohne Angst haben zu muessen, dass sie im Nirwana landet?

    Hardwaremaessig laesst sich vielleicht nicht mehr viel verbessern – softwaremaessig weiss ich spontan fast nichts, was NICHT dringend verbessert werden muesste.

  2. Hehe… ja, da sagst Du was…

    Gut, ein eigenes Betriebssystem waere mir dann doch etwas zu aufwendig. Aber dafuer benutz ich meine eigene Projekt- und Terminplanung (e-kalender.de), meinen eigenen Code-Editor (also zum Programmieren), mein eigenes CMS/Blog-Software und ein paar Jahre lang hab ich auch meine eigene Graphik-Software (aehnlich wie Illustrator) benutzt – da wurde mir die Pflege aber irgendwann zu aufwendig und der Code war irgendwann so unuebersichtlich (ich programmiere grundsaetzlich „kommentarfrei“), dass ich das ganze frustriert in die Tonne gehauen hab. 😉

  3. Ach da kann ich auch mithalten
    – Eigenen codeditor (immer noch in Benutzung)
    – eigenes Mailprogramm (umstellen auf imap war mir zu aufwendig)
    – eigene Dateisuche
    – einige andere Tools
    – Raumfahrtprogramme

    am besten mal auf
    http://www.bernd-leitenberger.de/downloads.shtml
    und
    http://www.bernd-leitenberger.de/raumsonden-software.shtml
    vorbeischauen

    Der Spam Filter schlägt leider bei jedem Zu der zu viele Links postet. Michel Van weis ein Lied davon zu singen….

  4. Ja, Du hast da auch durchaus ein interessantes Portfolio. 🙂

    Ich bin in den letzten Jahren allerdings dazu uebergangen, fast ausschliesslich web-basierte Software zu entwickeln, also alles HTML/Javascript-basiert. Da sind die Moeglichkeiten aufgrund des besseren Browser-Supports und der CPU-Geschwindigkeit (womit ich wieder On-Topic waere ;-)) enorm gestiegen und es ist einfach schoen zu wissen, dass man seine Software (mein Code-Editor ist auch HTML/JS-basiert) ueberall auf der Welt in jedem Internet-Cafe benutzen kann.

    Nebenbei finde ich, dass Javascript eine sehr schoene Programmiersprache ist: Sehr einfach und uebersichtlich, wenige Funktionen und Ausdruecke, nicht so ein Ultra-Chaos wie z.B. PHP…

    Ausserdem hat man bei web-basierter Software gleich eine super Layout-Engine fuers GUI dabei. Was will man mehr? 🙂

  5. > Vielleicht kommt ja mal wieder der Heim -PC in der Tastatur.

    Den würde ich allerdings nicht kaufen, da ich das Design schon damals nervig fand.

    Ruhezustand: Grundsätzlich eine gute Idee. Aber bei meinem Win2k ist er Mist. Denn wenn ich online war, den Rechner in den Ruhezustand versetze und später wieder daraus aufwecke, scheint trotzdem irgendwas verstellt zu sein, denn wenn ich danach wieder online gehen will, passiert im besten Fall gar nichts, im schlimmsten Fall stürzt er ab, so das ich doch wieder neu booten muss. Nur eine Onlineverbindung kommt nach dem Ruhezustand nicht mehr zustande. Keine Ahnung, ob es bei XP, Vista und Win7 genauso aussieht.

    > Keiner meiner letzten beiden PCâ

  6. Hans: Man kann in Programmen Kommentare setzen. Das sind Textabschnitte, die der Computer einfach ueberliest und die nur dafuer da sind, damit der Programmierer spaeter mehr Uebersicht hat und weiss, warum er z.B. etwas genau so programmiert hat.

    Wenn ich programmiere, dann sind das meistens so „Augen-zu-und-durch“-Phasen und ich versuche, moeglichst viel Code in moeglichst wenig Zeit zu schreiben, und dann bin ich meist auch zu faul, Kommentare zu setzen. Meistens kommentiere ich nur die wirklich ganz abgefahrenen Sachen, bei denen ich weiss, dass ich sie spaeter sowieso nicht mehr verstehen wuerde, wenn da kein Kommentar steht 🙂

  7. Bei XP ist der Ruhezustand eine feine Sache. Im Geschäft war es bei mir die Standardeinstellung da dort wegen der Anmeldung an die Domäne und Startskripte das Booten noch deutlich länger dauerte als zuhause.

    Bei Windows 7 muss man bei den Energieeinstellungen den hybriden Ruhezustand deaktivieren, dann kommt der normale „Suspend to Disk“ wieder zum Vorschein – ich habe das wegen dem Artikel mal recherchiert und seit gestern fährt der Rechner eigentlich nur noch in den Ruhezustand runter.

  8. @Alexander: Danke für die Erklärung von Kommentaren. Das weis ich zwar, weil ich auch selber programmiere, aber so kurz hätte ich es wahrscheinlich nicht hinbekommen.
    Zur Methode: das hab ich schon befürchtet, das es so ungefähr aussieht. Ich kommentiere i.d.R. sehr ausführlich. Allerdings bin ich noch nicht so weit, das ich so kommentieren könnte, das ein weiteres Parsermodul aus Quelltextkommentaren die Dokumentation erstellen könnte, wie es ja hin und wieder propagiert wird.
    Oder was ich auch sehr interessant finde: die standardisierten ReadMe’s zu Sternenkatalogen, wie man sie beim Astronmischen Rechenzentrum Strasbourg (wo Simbad zu Hause ist) findet. Da steht dann drunter: „The document above follows the rules of the Standard Description for Astronomical Catalogues.From this documentation it is possible to generate f77 program to load files into arrays or line by line“
    Sehr interessant: Da kann aus der Datenbeschreibung also gleich Code generiert werden, der sie in den Speicher läd, damit man damit rechnen kann. Zwar gehört Fortran nicht zu meinen bevorzugten Programmiersprachen, aber darum geht es ja auch nicht. Der Ansatz ist jedenfalls nicht schlecht.

  9. Das mit der Haltbarkeit kann ich voll bestätigen. Ein 14 Jahre alter Pentium läuft bei mir immer noch, nur die Festplatte mußte gewechselt werden. Die beiden danach gekauften Rechner sind schon längst in den ewigen Jagdgründen. Zufall oder Absicht? In Betriebswirtschaft hab ich mal gelernt, daß nichts so geschäftsschädigend ist wie ein zu langlebiges Produkt. 😉
    Ähnlich sieht es mit den Standards aus. Sowohl Intel als auch AMD bauen ja nicht nur Prozessoren, sondern auch Chipsätze. Die wird man aber nur dann los wenn auch neue Boards gebraucht werden. Solange man einen neuen Prozessor auf das alte Board stecken kann wird man die eben nicht los. Öfter mal ein neuer Sockel garantiert dagegen einen größeren Umsatz.
    An anderen Stellen sieht es ähnlich aus. Daß DDR2 und DDR3 durchaus kompatibel sein können, zeigt AMD ja mit den Phenom II-CPUs. Die haben Controler für beide Standards auf dem Chip. Nur bei den Chipsätzen mußten es unbedingt zwei unterschiedliche Typen sein. Technisch völlig unnötig, aber was macht man nicht alles um an mehr Geld zu kommen…

  10. Hey Elendsoft: das ist ja ’ne gute Vorlage. 🙂
    Die Frage ist ja letztlich nicht, was man alles tut, um an Geld zu kommen, sondern warum? – Die Antwort darauf ist, das die Wirtschaft wachsen soll, bzw. der einzelne Betrieb. Das ist ganz unabhängig davon, ob man einer angebots- oder nachfrageorientierten Theorie den Vorzug gibt. Beide setzen aufs Wachstum, und das führt zu immer neuen Auswüchsen bzw. immer seltsameren Ideen, wie man zu Geld kommt (bzw. das Wachstum ankurbelt). Deshalb ist meine These: Solange wir (als Menschheit) uns nicht von dem Dogma des Wachstums verabschieden, wird dieser Unfug weiter gehen. D.h. immer wieder mal ein neuer Sockel, andere Stecker, ein leicht verändertes Protokoll oder abweichende Spannungspegel und all so ein Quatsch, der zwar technisch überflüssig ist, aber dazu dient, immer neue Produkte zu verkaufen.
    Das verrückteste Beispiel das mir dazu noch einfällt, ist Intels Softwareentwicklungsabteilung die dazu da ist, Software zu entwickeln, die die aktuellen Prozessoren jeweils an die Grenzen bringt, bzw. überfordert, um zu zeigen, das man bessere entwickeln muss…

  11. Manchmal geht die Evolution auch rückwärts. Nicht nur was die Rechentechnik angeht, sondern auch die Ergonomie. Gerade was z.B. Bildschirme angeht. An meinem Pentium M Thinkpad (bis 2008?) hab ich ein super 4:3 Display (matt!) mit 1400x1050er Auflösung. 4:3 finde ich deutlich ergonomischer als dieser ganze Breitbildwahn. Heutige vertikale Auflösungen sind bei Notebooks meist 768px (wie vor 10Jahren). Hinzu kommen spiegelde Displays. Vergleichbare Displays wie an meinem, nicht mehr ganz aktuellen aber mehr als ausreichenden, Thinkpad bekommt man heute gar nicht mehr, oder sie sind unbezahlbar.

  12. overlord: Das mit den spiegelnden Displays (die allzu oft sogar noch explizit als „Feature“ erwaehnt werden (!!!)) finde ich auch hochgradig belustigend. „Glaenzendes Display“ etc. liest man oft in Produktbeschreibungen. Das ist ungefaehr so, als wenn man in einem Autoprospekt „Jetzt Neu: KEIN ABS!!!“ mit einem gelben „Knaller“ aussenrum auf die Titelseite drucken wuerde.

    Naja. Die Leute sind inzwischen fast alle wahnsinnig (und kaufen sowas auch noch).

    Zum Thema Breitbild: Ich habe selber auch ueberall 4:3, aber ich denke, Breitbild ist tatsaechlich ergonomischer (wenn man dann insgesamt auch wirklich ausreichend Diagonale und somit Hoehe hat), denn ich gehe davon aus, dass der Bereich, in dem die Augen (zusammen) scharf sehen, auch eher 16:9 als 4:3 ist. Kann mich aber auch taeuschen.

    Weiss da jemand genaueres zu?

  13. Wenn in den Prospekten wenigsten „Glanzbild“ stehen würde. Da steht aber das ganze klausuliert wie „Glare“. Vor allem halte ich die Li-Ionen Akkus für einen Rückschritt, den deren Haltbarkeit ist begrenzt.

    Beim Monitorformat wäre ich für 1:1 oder wenn schon 16:9 dann um 90° drehbar, aber das kostet leider ziemlich viel extra. Hochkant brauche für die Arbeit am Text häufiger als Breitbild.

    Ab einer bestimmten Größe ist es aber egal, weil man sowieso nicht den ganzen Monitor überblickt. Bei mir ist das schon bei meinem 24″ der Fall, weil der rund 30 cm von mir entfernt ist (ich sehe nur 25%)

  14. @Bernd: ich glaube nicht, dass bei PCs eine Sättigung eintritt. Im Gegensatz zum Taschenrechner wird der PC viel universeller eingesetzt, und damit gibt es etliche Anwendungsgebiete, bei denen er einfach niemals schnell genug sein kann. Die verbreitetste sind dabei sicherlich Spiele, dann gibt es noch Musikproduktion, Videobearbeitung, wissenschaftliche Berechnungen, jede Art von Simulation, Programmierung, Finanzsystem und so weiter. Nicht zuletzt das Betriebssystem: ein bis zwei Minuten Zeit zum Hochfahren ist für meine Begriffe kaum akzeptabel.
    Dass es hin zu immer mehr Kernen geht, liegt daran, dass die Verlustleistung ein Riesenproblem ist. Zumindest theoretisch steigen Stromaufnahme und Rechenleistung linear mit der Anzahl der Kerne, bei der Taktfrequenz jedoch steigt die Stromaufnahme stärker als die Rechenleistung. Die Verkleinerung der Strukturgrößen passiert zu langsam, um dem entscheidend entgegenzuwirken.
    Nun ist Software der Hardware üblicherweise hinterher, das gilt besonders für Parallelität. Es ist einfach für Programmierer viel einfacher, linear zu denken. Eine der verbreitetsten Programmiersprachen, C Plusplus, hat bis heute nichts eingebaut, das sich mit Multithreading beschäftigt. Ich bin aber sicher, dass Software die vielen Kerne zukünftig auch besser ausnutzen wird. Die Spiele sind dabei wie üblich wieder vorne dabei.
    @Keiner: Apple hat auch seine Probleme. Soweit ich weiß, waren die auch Vorreiter bei spiegelnden Displays, und haben auch das ein oder andere Verbrechen gegen die Ergonomie verübt.
    @Hans: woher hast Du das von Intels Softwareentwicklungsabteilung? Macht eigentlich keinen Sinn; z.B. ein Programm zum Schlüsselknacken würde reichen, das kann man in 100 Jahren noch benutzen, um die Langsamkeit von Prozessoren aufzuzeigen.

  15. @Arne: Du schreibst mal wieder von den „üblichen“ Verdächtigen. Nur: so viele Leute schienden nicht Videos und auch Gamer gibt es weniger als man denkt. In 30,3% aller PC’s ist nur eine Grafikkarte eingebaut. 70% sind also garantiert keine Gamer und wie viele von den 30% Gamer sind lasse ich mal offen.

    Natürlich gibt es auch Spezialsysteme für die Wissenschaft und es wird immer Anwendungen geben für die es nicht schnell genug sein kann. Aber ich rede hier von der Masse. Für die Masse lohnen sich immer mehr Kerne nicht.

    Auf die fehlende Parallelität zu schimpfen ist beliebt, aber auch hier: Die verbreitetsten Anwendungen sind nicht parallelisierbar – Textverarbeitung, Mailen, Surfen, was will man da parallelisieren und welchen nutzen bringt es, wenn 99% der Zeit auf den Benutzer gewartet wird oder andere Teile zum Flaschenhals werden (Verbindungsgeschwindigkeit, Festplatte).

    Klar Videoschnitt und spiele kann man gut parallelisieren, aber nochmals: Die meisten Leute sind keine Videofilmer und keine Gamer. Man muss sich nur gucken wie Geräte wie Netbooks und ipads verkauft werden – die Leute wollen surfen, nicht ballern.

    Zu Intels Softwareabeteilung: Ich habe von denen nur gutes gehört. Sie versuchen natürlich ihre Prozessoren optimal auszulasten auch um einen Kaufanreiz zu bieten. Die Intel Compiler die das leisten bekommt man als Privatperson umsonst und sie sind in VS einbindbar. Was erwartet ihr denn von einer Hardwareschmiede? Das sie warten bis irgend jemand mal SSE Befehle selbst in Assembler implementiert oder MS sich mal aufrafft die zu unterstützen?

  16. @Arne: Das stand vor einigen Jahren, als das Rennen um immer höhere Taktfrequenzen noch im Gange war, in der c’t. Und es bezieht sich übrigens nicht auf die gesamte Softwareabteilung, sondern nur auf einen Teil davon.
    @Bernd: Als ich das letzte mal was über Intels Compiler gelesen habe, stand da, das sie NUR innerhalb einer VC- bzw. VS-Umgebung nutzbar sind, und als Stand-alone Applikation nicht zu haben. Und in den Release Notes von Intel steht zur Windowsversion des C Compiler 11.1 auch nichts davon, das er ohne eine Visual-Studio Umgebung oder ein Microsoft SDK laufen würde.
    Davon abgesehen das ich (zumnindest bewusst) keinerlei MS-SDK auf meinem Rechner installiert habe, würde mir der Intelcompiler bei AMD-Prozessoren wahrscheinlich auch nicht so viel nutzen, wie es bei Intels eigenen Prozessoren der Fall ist. Oder gibt es unabhängige Vergleiche (Benchmarks), die den Compilern bescheinigen, das sie auch aus AMD-Prozessoren alle Leistung heraus kitzeln, die sie bieten?

  17. @Hans: Es gibt ihn für Linux auch als Stand-alone Version
    Ich weis auch nicht was du von einem verschenkten Compiler erwartest. Das sich Intel an die meist genutzte Entwicklungsumgebung anhängt ist klar – unter Windows ist nun mal eben nicht der Compiler extra und keiner entwickelt in einer IDE und schmeißt dann zum compilieren separat den Compiler an. Das Intel nur ihre Chips unterstützt würde ich als normal bezeichnen. Was bitte auch sonst.

  18. nanu, mein Beitrag war kurz sichtbar (sogar die Links wurden ordentlich eingebunden)und dann verschwunden. Wird er manuell freigeschaltet oder bin ich auf einer Black List unerwünschter Kommentatoren? aus Mangel an Information hier nochmal:

    Zitat „Das zweite ist das Stromsparen. Es hat sich viel getan, doch noch immer brauchen PCâ

  19. Zu den Compilern: ich meinte das über Intel nicht abwertend, es hatte mich nur gewundert. Ich weiß, dass deren Compiler sehr guten Code erzeugen. Visual C bietet aber übrigens auch seit 2005 Unterstützung für SSE und SSE2 an. SSE3 sucht man aber auch in VS 2010 noch vergeblich.
    Für Parallelisierung in Standardanwendungen wie Mailen, Surfen oder Textverarbeitung gibt es einiges, was man in Bezug auf Komfort machen könnte. Das Durchsuchen meiner Inbox dauert immer noch etliche Sekunden, das könnten sich die Kerne vielleicht teilen, damit ich nach jedem einzelnen Tastendruck sofort aktualisierte Suchergebnisse habe, wie es z.B. Google macht. Ein großes PDF mit vielen Grafiken anzuzeigen ist auch immer noch etwas langsam, hier könnten bei 12 Kernen schon mal die nächsten 11 Seiten im Voraus gerendert werden. Was Browser angeblich schon machen, ist im Hintergrund Links zu laden und zu rendern, die sich auf der aktuellen Seite befinden – vielleicht klickt der Benutzer die ja demnächst an. Das ist auch gut parallelisierbar – schnelles Netzwerk natürlich vorausgesetzt, aber das wird ja auch immer schneller.

  20. Verkehrsvision: Haha, ja, das mit den Netzteilen ist auch so eine lustige Geschichte…

    Ich habe schon ein paar Mal ein Ersatznetzteil benoetigt bzw. habe ein Gehaeuse mit Netzteil gekauft, um mir dann selber die Komponenten einzubauen, und jedesmal, als ich gefragt wurde, was ich denn fuern Netzteil brauche, habe ich gesagt „Das kleinste was Sie haben ist schon viel zu gross“. Kein normaler Mensch braucht mehr als 200 Watt, und ich glaube, das gibt es schon gar nicht mehr.

    Das ist halt wie bei allem im Computerbereich – es gibt nur noch Komponenten, die 10 mal so gross, 10 mal so schnell oder 10 mal so leistungsfaehig sind wie das, was man eigentlich braucht. Und erstaunlicherweise auch noch zu so guenstigen Preisen.

    Ich haette es lieber, dass Computer 3 mal so teuer waeren bei halber Leistung, und dafuer zuverlaessiger, robuster und langlebiger.

  21. Zu den Netzteilen: Wie immer muss man es differentiert sehen. Solange Komplett-PC’s mit 5 Laufwerksschächten und zwei Steckplätzen für Grafikkarten verkauft werden, wird es diese mit leistungsfähigen Netzteilen geben. Es könnte ja jemand 5 JD und zwei Grafikkarten einbauen – dann wird einiges an Leistung benötigt. Die schnellsten Grafikkarten haben einen Stromverbrauch von 250 W unter Volllast, Mittelklasse immerhin 130 W.

    Man kann vermeiden auf dem Spam Ordner zu landen indem man nicht zu viele Links in den Beitrag einfügt.

  22. In den „Fach“-Zeitschriften werden ja so ziemlich alle Boards schlechtgemacht, auf die man keine 4 Grafikkarten bauen kann. Da ist es nur logisch daß inzwischen schon 1300W-Netzteile angeboten werden. Weil ja inzwischen Jeder uuuunbedingt so eine Super-Kiste braucht. Möglichst mit einer ganzen Galerie blinkender Läpchen wie eine Rummelbude garniert. So läßt sich der Energieverbrauch nochmal verdoppeln.

  23. Betrift: Compiler.
    Dass es den Intel-Compiler auch für Linux gibt, hab ich bei den Recherchen zu meinem Beitrag gestern auch heraus gefunden. Allerdings hab ich nicht danach geguckt, ob als Stand-alone Applikation oder nicht.
    Und das der Compiler unter Windows unbedingt VS als IDE benötigt ist nicht normal, sondern das halte ich für eine Subvention für Microsoft durch Intel. („Subvention“ ist sehr wahrscheinlich zwar nicht der richtige Ausdruck, aber es sollte klar sein, was ich meine.)
    Wenn der Compiler schon so gestaltet ist, das man ihn in eine IDE einbinden kann, dann sollte es auch möglich sein, ihn in jede IDE einzubinden, die der Anwender wünscht. (Oder zumindest in jene, die neben VS auch noch sehr weit verbreitet sind, also beispielsweise von Borland, (bzw. CodeGear, wie sie jetzt heissen), Eclipse usw. Technisch spricht da überhaupt nichts gegen, das Einzige was meiner Ansicht nach dagegen spricht, sind Marketingüberlegungen.
    Ansonsten: Der Mikrocontroller-Hersteller Atmel bietet für seine MCUs ja auch Compiler, Emulatoren, Debugger usw. zum kostenlosen Download an, die alle in einer IDE eingebunden sind. Das könnte Intel mit seinem Compiler ja auch tun. Also: für mich gibt es keinen praktisch nachvollziehbaren Grund dafür, warum sie es nicht tun.

    Zur IDE: da verwende ich seit einiger Zeit den OpenWatcom Compiler, den es ebenfalls umsonst gibt, da er Open Source ist. Da ist neben den heute üblichen Tools wie Debugger usw. auch eine IDE dabei. Für kleine Programme verwende ich die allerdings nicht, weil sie mir zuviel Overhead erzeugt, der in diesen Fällen überflüssig ist. Stattdessen ziehe ich es vor, das Kommandozeilentool zu verwenden, das nur den Compiler und den Linker aufruft, und sonst nichts. Das erspart mir den Overhead.

    Wäre noch die Unterstützung der eigenen Chips. Grundsätzlich ist natürlich klar, das Intel erst mal die eigenen Chips unterstützt. Ich dachte bei der Bemerkung aber auch an was anderes, nämlich das der Intelcompiler grundsätzlich die Arbeit verweigert, wenn er feststellt, das er auf einem AMD-Prozessor laufen soll. Das ist mit CPUID-Befehlen ja recht einfach umsetzbar.
    Aber es gibt da zwischen Intel- und AMD-Prozessoren ja auch Kompatibilitäten in den Spezialfunktionen, die der Compiler ausnutzen könnte. – Oder ist das zuviel verlangt, bzw. eine überhöhte Erwartung?

    Links einer Webseit im Hintergrund zu laden halte ich nur im LAN für eine gute Idee. Mit meinem ein MB i-net-anschluss verursacht mir das zuviel Datenverkehr. (Und das liegt diesmal nicht an meiner veralteten Hardware.) Das vorabrendern bei grossen PDFs wäre dagegen wirklich was, womit man weitere Prozessorkerne beschäftigen könnte.

  24. Hans: Wenn Du auf der Suche nach einem C-Compiler inkl. IDE unter Windows bist, dann kannst Du auch mal lcc-win32 probieren. Runterladen, setup.exe klicken, fertig… alle Bibliotheken etc. dabei.

    Man sollte nur innerhalb des Editors nie die Undo-Funktion nutzen 😉

  25. Auch auf die Gefahr mich unbeliebt zu machen: ich würde als Hobbyprogrammierer auf dem Windows-PC immer noch Microsoft Visual C Plusplus den anderen Compilern vorziehen. Der Intel-Compiler ist nur für Linux kostenlos, lcc ist halt nur ein C und kein C Plusplus Compiler, und OpenWatcom ist nicht so ganz auf der Höhe der Zeit, da noch nicht einmal die STL Unterstützung fertig ist.
    Ich vermute mal, dass vom Intel Compiler erzeugter Code auf Intel CPUs immer noch schneller läuft als auf AMDs, aber gross dürften die Unterschiede eigentlich nicht sein. Die lizenzieren sich sowieso ihre Erweiterungen gegenseitig, AMD darf SSE benutzen, Intel darf X64 benutzen. Die alten Erweiterungen des X64 Befehlssatzes wie MMX und 3DNow spielen heuzutage keine Rolle mehr.

  26. Ich gebe Arne recht, obgleich ich Codegear einsetze, aber ich programmiere auch in Delphi, da gibt es keine so große Auswahl. Die Version von VS für eine Sprache ist kostenlos, man bekommt eine Menge Hilfe im Netz. Das Produkt ist ausgereift und ist auch der Standard im kommerziellen Einsatz.

    Vielleicht ist es Alterweisheit. Aber ich sehe das dogmatisch und nehme das was am geschicktesten für mich ist, unabhängig von der Firma. Die Zeit wo ich Feindbildern nachgehangen habe „böses Microsoft, am besten noch mit Dollarzeichen geschrieben“ sind längst vorbei. Das ist auch irgendwie kindisch.

  27. Bernd: Haha, ja, diese Zeit habe ich auch erlebt… da habe ich auch immer „M$“ geschrieben und WINBLOWS und WINDOZE war immer BOESE… also war nicht nur ich bescheuert. Beruhigend zu wissen 🙂

    Frueher war man halt im jugendlichen Uebermut wohl irgendwie immer ideologisch gepraegt… heute geht man die Dinge eher nach Kosten/Nutzen-Rechnung an…

  28. @Arne: Also das ist Deine Meinung, aber damit machst Du Dich zumindest bei mir nicht unbeliebt. Das der Open Watcom den Standards hinterher hinkt, weis ich, – allerdings bin ich auch nicht so gut, als das einen Beitag leisten könnte, um daran was zu ändern. Und vorerst reicht er mir auch.
    Um in Sachen Standards wirklich auf der Höhe der Zeit zu sein will ich demnächst mal MinGW installieren, weil ich damit immer einen aktuellen gcc zur Verfügung habe. – Und damit einen vollständig umgesetzten C99-Standard, den ich dann auch mal austesten kann/will.
    Ansonsten bin ich ja immer noch ein Fan von Borland, aber den auch frei zur Verfügung stehenden Borland C Compiler V5.5 benutz ich trotzdem nicht mehr, weil er ein paar Bugs hat. Bei den IDEs hab ich bisher nur ein wenig mit der von Delphi 6 bzw. C Builder 1.0 gemacht, und die sind, (wie auch die gesamte Arbeitsweise damit) erst mal gewöhnungsbedürftig.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.