„Best with 6 MPixeln“
Michael K. hat mir den Link zu einer Kamera geschickt, die nur 2,26 MPixel hat – und das bei einem Vollformatsensor. Die Kamera ist so lichtempfindlich dass man nach dem Datenblatt selbst in mondhellen Nächten die Szene wie bei anderen Kameras bei Tag aufnehmen können umgerechnet sind es 4 Millionen ISO. Wer noch mit Film gearbeitet hat weiß: normaler Film hatte 100 bis 400 ISO, 800 ISO Film wurde schon sichtbar grobkörnig., Das brongt mich zu meinem Thema, das nicht neu ist, aber man kann es ja mal wieder ausgraben oder?
Es gibt die Webseite 6Mpixel. Sie entstand, als die ersten Digitalkonsumerkameras aufkamen die mehr als 6 Mpixel hatten und sich in Zeitschriften Testberichte über schlechtere Bildqualität häuften und auch Privatpersonen die Erfahrung machten, dass die Bildqualität abnimmt. Sie konnte eines nicht ändern: den Pixelwahn. Er ist in den letzten Jahren bei den Digitalkameras etwas abgeschwächt, bei den in Tabletts oder Smartphones eingebauten Kameras geht er weiter. Warum ist der Pixelwahn schlecht?
Nun es ist eigentlich ganz einfach: egal ob Film mit Silberkorn-emulsion oder einem CCD mit einem lichtempfindlichen Halbleiter, es passiert immer das gleiche: Lichtteilchen (Photonen) treffen auf ein Element und lösen durch die übertragene Energie etwas aus. Bei Film eine chemische Reaktion, bei CCD übertragen sie Energie auf ein Elektron das dann das Atom verlassen kann. Beide Techniken brauchen eine gewinne Mindestmenge an Photonen, damit man eine Belichtung von dem normalen Rauschen unterscheiden kann. Das Rauschen entsteht bei einem CCD durch die Temperatur. Gemäß Maxwellscher Verteilung haben bei einer bestimmten Temperatur nicht alle Teilchen die gleiche Energie. Einige haben eine höhere und andere eine niedrige bei einigen riecht es aus das sich auchb durch diese Energie sich ein Elektron ablösen kann.
Ein Maß für die Qualität eines Detektors ist daher die Quantenausbeute. Sie liegt bei CCD in der spitze bei 80%, fotografischer Film liegt deutlich unter 10%. Das sind allerdings Spitzenwerte. Die 80% erreicht man nur mit Kühlung um das thermische Rauschen zu vermindern und auch nicht über den ganzen Spektralbereich. Das Hubble Weltraumteleskop bei dem die Detektoren nicht gekühlt werden können, hat eine Spitzenausbeute von 30-40% bei der WPFC3 Kamera. Doch selbst ohne Kühlung ist ein CMOS-Sensor wie er in einer Konsumerkameras verwendet wird weitaus empfindlicher als fotografischer Film – bei derselben Größe eines fotografischen Elements.
Bei Film ist wegen der unregelmäßigen Natur des Filmkorns recht schwer die Auflösung anzugeben. Man misst sie meistens mit der Fotografie eines Linienmusters das immer enger wird. Wenn man gerade noch zwei Linien unterscheiden kann bevor es in einen Brei von Hell-Dunkel übergeht hat man die Auflösung. Diese wird in Linienpaaren pro Millimeter angegeben. Kleines Detail am Rande: Bei Raumsonden hat man noch lange die Auflösung ihrer Bilder in Kilometer pro Linienpaar“ angegeben. Die Umrechnung für die Mpixel die bei CCD üblich ist ist relativ einfach:
Um ein Linienpaar zu unterscheiden braucht man zwei Pixel (eines dunkel, eines weiß). Multipliziert man dies mit der Angabe pro Millimeter und der Länge bzw. Breite des Detektors so bekommt man die Pixel in der jeweiligen Dimension. Ein typischer nicht besonders lichtempfindlicher Farbfilm für Hobbyknipser hatte eine Auflösung von 125 Linienpaaren pro Millimeter. Das Kleinbildformat hatte Abmessungen von 24 x 35 mm. So erreichte sich die äquivalente Pixelmenge so:
Länge: 35 mm x 125 Linienpaaren/mm * 2 Pixeln/Lininenpaar = 8750 Pixel
Breite: 24 mm x 125 Linienpaaren/mm * 2 Pixeln/Lininenpaar = 6000 Pixel
Gesamt: 6000 Pixel * 8750 Pixel = 52,5 Mpixel
So gesehen scheint fotografischer Film immer noch deutlich besser als die Sensoren bei den heutigen Konsumerkameras zu sein. Allerdings muss man bei dem Vergleich berücksichtigen, dass dort die Sensorgröße viel kleiner sind „Vollformat“ Sensoren, die also das Kleinbildformat als Sensorgröße haben, erreichen durchaus 50 Mpixel und fotografischer Film erreicht diese hohen Werte nur bei hohen Kontrasten, das liegt an der physikalischen Eigenschaft des Filmkornes. Er ist deswegen auch hervorragend geeignet um als Mikrofilm Text aufzunehmen (hoher Kontrast von schwarzen Buchstaben zu weißem Blatt). Bei niedrigem Kontrast also ähnlicher Helligkeit sieht es deutlich anders aus. Dann erreicht derselbe Film nur noch 40 Linienpaare/mm, was 5,4 MPixeln entspricht. Das sind die Werte eines typisches Films für Kleinbildkameras mit 125 ISO Empfindlichkeit. Für Vergrößerungen oder schwierigere Lichtbedingungen ging man schon früher bei Kameras auf das Mittelformat über mit deutlich größeren Negativen.
Nun ist eines unbestritten: selbst billigste CMOS-Sensoren sind fotografischem Film in Bezug auf Lichtempfindlichkeit überlegen. Das gilt aber nur für gleiche Pixelzahlen und Sensorgrößen. Ich habe mir mal eine gebrauchte Canon EOS mit 8 MPixeln und APS-C gekauft. Die bildet in 15 s Belichtungszeit mehr Sterne ab als mein Teleskop mit einer Kleinbildkamera in 10 Minuten. Bei vollem Sonnenschein im Sommer sind die Bilder selbst bei geringster Belichtungszeit leicht überleblichtet.
Das leitet zum dritten Kriterium über: den Lichtverhältnissen. Eine Kamera die astronomische Aufnahmen machen soll wird sicher größere Pixel haben als eine die nur draußen bei Sonnenschein Aufnahmen machen soll. Da unser Auge durch die sich schließende Iris und verschiedene Sensortypen (Zäpfchen und Stäbchen) die Fähigkeit hat sich an sehr unterschiedliche Lichtverhältnisse anzupassen, täuscht man sich leicht über die Helligkeitsverhältnisse in der Umgebung:
- Sommertag ohne Wolken > 100.000 Lux
- Wintertag ohne Wolken > 10.000 Lux
- vollständig bedeckter Himmel im Winter ~ 1000 Lux
- Innenraumbeleuchtung für Arbeitsstätten: 100 bis 500 Lux
- Vollmondnacht: 0,24 Lux
Da wir bei Vollmond zwar nicht mehr farbig sehen können, aber durchaus noch gut Wege erkennen können kommt unser Auge mit Extremen der Beleuchtungsstärke um den Faktor 400.000 zurecht. So gut ist kein Sensor, auch kein kommerzieller für fünfstellige Beträge (das scheitert schon an der Quantifizierung die mit maximal 12 bis 14 Bit erfolgt also 4096 oder 16384 Stufen)
So ist aber auch einiges verständlich: viele Kameras mit kleinen Sensoren und vielen Megapixeln machen draußen bei Sonnenschein tolle Aufnahmen. In einem Innenraum wo es meist wenige Hundert Lux hell ist, dagegen sind sie verrauscht. Das Problem ist nicht neu: Rauschen gibt es schon bei fotografischem Film. Bei CCD und CMOS Sensoren ist es aber lästiger, denn diese haben eine Bayes-.Maske über dem Chip. Aus je 4 Pixeln gewinnt man die Farbinformationen. Zwei sind grün (weil das Farbempfinden des Auges maximal im grünen Spektralbereich ist) und je einem roten und blauen Pixel wird die Farbinformation gewonnen. Ist nun einer durch Rauschen heller als die anderen so entsteht ein Farbrauschen aus blauen, roten, gelben Pixeln die in einem sonst andersfarbigen Hintergrund stark auffallen.
Als Kriterium für die Qualität tauglich ist daher eher die Pixelgröße.
Astronomische CCD haben eine Pixelgröße von 6 – 14 µm Kantenlänge pro Pixel. Die New Horizons Kamera LORRI die gerade die Aufnahmen bei Pluto machte, hat 13 µm Kantenlänge pro Pixel. Trotzdem braucht man 1/6 bis 1/10 s Belichtungszeit bei einem so lichtschwachen Objekt wie Pluto Nur zum Vergleich: Bei Jupiter reichte 1/300 s. Das bedeutet die Kamera ist bei Jupiter in etwa genauso empfindlich wie eine normale Kamera auf der Erde (und das bei 27-mal weniger Licht). In diese Pixelgröße kommen auch Vollformatkameras. Eine Vollformatkamera mit 33 MPixeln hat z.B. Pixel mit 6 µm Kantenlänge. Das „Best with 6 MPixel“ Kriterium bezieht sich auf einen 2/3 Zoll Chip, das entspricht 3,1 µm Kantenlänge. Das ist deutlich unter den astronomischen Kameras, aber man will die Kamera ja auch bei Tage einsetzen.
Das andere Extrem sind die Kameras in Smartphones. Hier kommt zum Pixelwahn (man will sich ja von Konkurrenzprodukten absetzen) noch die Problematik, dass man in dem kleinen Gehäuse wenig Platz für den Sensor hat. Bei dem IPhone 6s sind es nach Apples Angaben nur noch 1,5 µm große Pixels. Vergleichen mit einem 6 µm großen Pixel ist das eine 16-mal kleinere Fläche. Anders ausgedrückt: ein Foto gemacht mit einem Iphone und 1/100 s Belichtungszeit müsste genauso verrauscht wie eines in einer Spiegelreflexkamera mit APS-C Format und 12 MPixeln bei 1/1600 s.
So ist klar, dass nicht nur die Pixelzahl alleine sondern auch die Sensorgröße eine Rolle spielt. Traditionell wird die in der Diagonalen angegeben wobei man diese als Bruchteile eines Zolls angibt. Historisch betrachtet ist ein Zoll aber nicht 25,4 mm sondern nur 16 mm, da man den Außendurchmesser der alten Videoconröhren als Maßstab nahm. der nutzbare Innendurchmesser war aber mit 16 mm kleiner.
Bei den Digitalkameras konnte man von 2000 bis 2005 schon eine Reduktion der Bildgrößen von 1/1.6 auf 1/2.5 Zoll sehen (entsprechend 10 bzw. 6,4 mm Diagonale). Dabei ist es bis heute geblieben, man findet aber ab und kann auch noch kleinere Größen wie 1/3″. Smartphones haben noch kleinere Sensoren von 1/4 und 1/6. APS-C liegt bei 1,8 und Vollformat bei 2,65 Zoll. Im Extremfall hat eine Vollformatkamera die 120-Fache Chipfläche eines 1/6 Sensors in einem Smarttphone
Sie hat in der Regel aber nicht 120-mal mehr Pixel. Nun gilt es abzuwägen – wie viele Pixel brauche ich? Neben der Art wie man das Foto verwendet (für Vergrößerungen braucht man naturgemäß mehr Pixel, macht man nur Außen Schnappschüsse vom Urlaub so genügt auch eine lichtschwache Kamera mit kleinen Pixelgrößen) spielt auch die Optik eine Rolle. Je kleiner die Pixelfläche ist desto höherwertiger muss diese sein. So gesehen sollte ein Hersteller eigentlich mehr Interesse an größeren Chips haben. Aber dem ist nicht so. Denn je kleiner der Chip ist, desto kleiner auch die Optik für eine bestimmte Blende. Verwendet man eine etwas größere Optik so kann man leicht Superzooms realisieren, heute sind Faktoren bis 30-fach möglich, das ist eigentlich die Vergrößerung eines kleinen Fernglases und bei einer Kamera ohne Stativ nicht praktikabel (das Muskelzittern sorgt dafür dass man keine Fotos mit 30-fachem Zoom schießen kann, ohne das sie verschwommen sind oder man das Motiv nicht unbedingt in der Mitte hat).
Die kleine Chipgröße hat auch eine folge: Je kleiner diese ist desto größer der Bereich der scharf abgebildet wird. Das ist nicht unbedingt von Vorteil, denn die geschickt eingesetzte Unscharfe erlaubt es Dinge hervorzuheben – Eine Person vor einem unscharfen Hintergrund oder eine Landschaft hinter unscharfen Zweigen.
Natürlich haben die Hersteller die Probleme erkannt. Anfangs konnte man noch etwas physikalisch herausholen. Bei den Chips laufen zwischen den Pixel Leiterbahnen. Man ging zu anderen Formen über wie hexagonale Pixel bei denen der Leiterbahnenanteil über und später setzte man ein Linsenarray auf den Chip, dieses lenkt das Licht von den Leiterbahnen auf den lichtempfindlichen Teil. Damit konnte man mit 8 MPixeln Chips das gleiche erreichen wie mit 6 MPixeln. Doch heute hat man 12, 16 oder 20 Mpixeln. Das geht mit solchen Tricks nicht mehr. Seitdem regiert die Software. Die Elektronik schärft zum einen nach, zum anderen wendet sie auch Weichzeichner an. Nachschaffen muss man weil mit kleineren Chipflächen weniger Kontraste hat, ein hell belichtetes Pixel unterscheidet sich nur noch wenig von einem nicht so stark belichteten Pixel. Aus dem gleichen Grund muss das Signal verstärkt werden, damit aber auch das Rauschen und um die Bildfehler zu reduzieren wird weichgezeichnet. Beides zusammen bewirkt dass Flächen mit wenig Struktur mehr oder weniger homogen glattgebügelt werden und umgedreht bei den starken Kontrasten sind diese Überschrift oder es kann zu Artefakten kommen. Trotzdem haben die Kameras durch die Verstärkung und Bildfilter kaum Reserven für sehr helle oder sehr dunkle Bereiche.
Zurück zu meinem Wunsch nach der 3 Mpixel Kamera. Das ist noch etwas kleiner als die 6 MP die als Optimum von der Webseite angegeben wurden, allerdings haben die Kameras die ich bisher hatte, einen 1/2.3 bis 1/2.5 Zoll Sensor und die Webseite geht von 1/1.6 aus. Berücksichtigt man das, so sind 3 MP in etwa die gleiche Pixeldichte. 3 MP reichen für normale Abzüge und auch leichte Vergrößerung bis Din A5 aus und das ist das was ich mache. Sie sind auch noch am Monitor darstellbar, auch wenn es nun 4K Monitore mit 8 MPixeln gibt. Wofür soll ich Bilder mit mehr Pixeln generieren wenn das mir nichts nutzt? Ich gehe jetzt für Aufnahmen die ich per Mail verschicke oder in die Webseite einbette in der Auflösung runter.
Schön wäre es wenn die Kameras einen Modus anbieten würden, in dem sie die Pixel zusammenfassen (binnen) und so zumindest teilweise die geringere Pixelgröße kompensieren, doch die Modi mit weniger Pixeln sind meist Softwaremodi in denen das Bild heruntergerechnet wird. Nutzbar wäre auch ein besserer Digitalzoom, indem man z.B. von einem 12 MPixel Bild die inneren 3 MPixel nimmt – da entspricht einem Zoom um den Faktor 4. Allerdings scheint das Binnen von Pixeln anders als in astronomischen CCD nicht zu funktionieren. In einem Test der Ct‘ ergab sich bei diesem als „PureView!“ bei einem Hersteller implementierten Verfahren keine bessere Bildqualität. Stattdessen monierte der Redakteur die „unzeitgemäße“ 5 MPixel Auflösung der 18,7 MPixel Kamera nach dem Binnen. Wahrscheinlich wurde nicht auf Chipebene von dessen Elektronik gebinnt sondern von der Software heruntergerechnet, da hat man aber schon verrauschte Pixel zusammengefasst.
Überhaupt scheinen Zeitschriften nicht so genau zu wissen was sie wollen. Da jammert man im einem Artikel über die Algorithmen die zu viel nachschärfen und empfiehlt im nächsten dann Raw-Image Anwendungen für Android Smartphones um dem zu Begegnen: das dies eine Folge des Pixelwahns ist und man keine Raw-Verarbeitung bräuchte wenn dieser nicht vorliegen würde scheint den Redakteuren zu entgehen. Ebenso wird in einem Artikel ein 5 Jahre alter gebrauchter Rechner als ausreichend für Office & Co beworben und in einem anderen die neuesten Broadwell-Prozessoren als leistungsschwächer als die in einem Telefon verbauten bemängelt. Überhaupt scheinen in Computerzeitschriften Supermenschen zu arbeiten: während normale Menschen alle Bewegungen mit mehr als 16 Bildern pro Sekunde als fließende Bewegung wahrnehmen, brauchen die Redakteure dort neue „FreeSync“ Monitore damit sie nicht bei 40 oder 50 fps ihr Spiel verlieren. Schön wenn man die Schuld auf jemand anderen schieben kann. Manchmal wünsche ich mir die Redakteure würden einen einfachen Schulversuch wiederholen, denn wir mal machten. Da bekam man einen Piecks in eine Hand und musste mit der anderen dann auf einen Schalter betätigen. Damit bestimmte man die Reaktionszeit, respektive die Nervenleitgeschwindigkeit. Man wird rasch feststellen, dass man nicht schneller als 1/10 s ist, die meisten langsamer. Dann macht aber 1/40 oder 1/60 s mehr nicht mehr vielm aus.
Na ja besser aussehen werden die Bilder aus Freesync Monitoren schon. Das erklärt sich aus der Tatsache dass nun Billdaufbau und Frameraten synchronisieret sind, also nicht der Monitor einen Teil eines Frames anzeigt und dann von der Grafikkarte einen neuen bekommt sodass ein Teil des Bildes alt und ein Teil neu ist – eventuell mit einem Sprung in der Mitte. Das dies bei einem Windrad als Demo besonders auffällt ist auch klar. Nur ob dies auch die Reaktionszeit verbessert, da habe ich doch meine Zweifel.
Zurück zu den 3MPixel Kameras. Für das Problem gibt es eine Reihe von Lösungen. Das eine sind größere Sensoren. In den letzten Jahren hat sich zwischen den Kompakt Kameras für wenig Geld und Spiegelreflex neue Typen eingebürgert wie Bridge- oder System Kameras die in den Eigenschaften zwischen beiden Klassen liegen. dort findet man auch größere Sensoren wie 1 Zoll oder 4/3 Zoll Format. Ein 1 Zoll Sensor mit 13,5 MPixeln erfüllt auch das Kriterium von 6MPixel.org (dort bezogen auf 1/1.6 Zoll) genauso wie ein 4/3 Zoll Sensor mit 24 MPixeln. Leider sind diese Kameras auch preislich in der gehobenen Klasse, einige sogar teurer als Spiegelreflexkameras der Mittelklasse.
Das zweite ist, das die Hersteller mal eine Kamera mit 3 – 5 MPixel Sensoren im normalen 1/2.3 oder 1/2.5 Zoll Format anbieten. Jeder Hersteller hat inzwischen Zig Modelle im Programm und ich denke sie werden feststellen das diese auch Käufer finden. Denn auch jenseits des Pixelwahns gibt es für den einen oder anderen Gründe weniger Pixel zu haben: Wenn man die mehr Pixel nicht nutzt (sprich der Ausdruck oder Monitor sie gar nicht alle darstellen kann) dann belegen sie nur Speicher auf der SD-Karte und dem Backupmedium und das Übertragen dauert länger. Manchmal ist weniger mehr. So gibt es ja auch Handys ohne jeden Schnick-Schnack zu kaufen mit denen man nur Telefonieren und SMS Schreiben kann. Es gibt Leute die wollen das. Weil jedes mehr die allgemeine Bedienung verkompliziert. Zum anderen reicht auch ein Blick auf die Spiegelreflexkameras: Dort gibt es den Pixelwahn nicht. Seit Jahren bleiben die maximalen Pixelzahlen weitgehend gleich, weil dort gute Bilder mehr zählen. Will man in diesem Segment mehr Pixel haben, so muss man einen Sensor im Vollformat anstatt APS-C einsetzen, der mehr Fläche hat. Dort scheint also die Kundschaft Qualität zu honorieren: warum nicht auch bei billigeren Kameras?
Nur zwei kurze Punkte: Ja, meistens braucht man nicht so viele Megapixel und meist ist die Bildquali bei mehr Pixel schlechter – aber längst nicht mehr in dem Ausmaß und so zwangsläufig wie noch beim anfang des Pixelwahns.
Es hat schon einen grund warum das Nokia 808 etliche Jahre die beste Bildquali lieferte – und das auch bei Schwachlicht und 41!! MPixel.
2.: Ja, Generell, unter optimalen bedingungen, erscheinen Filme ab etwa 15 Frames als flüssig. Aber da gibt es viele Randbedingungen – die z.b. dafür sorgen dass bei 3D-Brillen sogar der Sprung von 60 auf 90 FPS noch einen MASSIVEN Unterschied macht.
Bei FreeSync: schau es dir bitte noch mal live an bevor du über die Experten rummoserst. Es hat seinen Sinn und ist in vielen Situationen wahrnehmbar.
ps: aber sonst, wie so häufig, steckt viel richtiges in diesem Artikel
1: Ich schrieb schon das Binnen, so nennt die Fachwelt das ist eine gängige Technik und wird sehr oft im wissenschaftlichen und inzwischen auch bei Amateuren eingesetzt (zumindest in der Astronomie wo ich mich auskenne). Allerdings erfolgt das auf der Chipebene durch dessen Ausleseelektronik, nicht aus dem fertigen Bild per Software. Gäbe es eine Kamera die das in der Art einsetzt so würde ich sie sofort kaufen. Das Nokia Lumia 930 im Test wurde in der Bildqualität schlechter bewertet als andere Smartphones. In den veröffentlichten Tafeln mit Motiven unter immer weniger Licht sieht man aber das es zumindest was die Lichtempfindlichkeit angeht bei 0,5 Lux noch hervorsticht.
2: Freesync ist vom Prinzip her ein Fortschritt. Es macht keinen Sinn das Framerate von Monitor und Grafikkarte voneinander abweichen. Wogegen ich mich wende ist diese hochnäsige Gehabe von Redakteuren die suggeriern dass sie ohne hohe Frameraten Spiele verlieren würden. Das drückt sich in Sätzen aus wie „Anders als ohne freesync liefen Spiele auch bei Frameraten von 40 bis 50 fps noch flüssig“. Ich dachte das ist aus dem einleitenden Satz der sich mit den Beschränkungen des Auges und Nervensystems befasst klar geworden. Bei Verkehrsunfällen gesteht man übrigens den Leuten eine ganze Schrecksekunde zu…
3: Bei VR Brillen ist es so dass durch die Versorgung beider Augen die Framerate doppelt so hoch sein muss, bei einer Technik sogar viermal so hoch wie normal. Dann werden aus 60 Hz schnell mal 30 oder 15.
Moin,
> heute sind Faktoren bis 30-fach möglich, das ist eigentlich die Vergrößerung eines kleinen Fernglases
auch bei Ferngläsern gibts Konsumenten die denken eine höhere Vergrößerung ist besser. Ist sie aber nicht. Top Ferngläser wie das Leica Ultravid haben „nur“ eine 7×42 Optik. Das sehr beliebte weil günstige Steiner Commander gar nur 7×30. Alles über 7 Fach ist als Fernglas nicht zu gebrauchen.
> während normale Menschen alle Bewegungen mit mehr als 16 Bildern pro Sekunde als fließende Bewegung wahrnehmen
Das geht aber auf die Bildwahrnehmung. Wo wir gerade bei Pixelgrößen sind. Die errechnete Auflösung unseres Auges ist höher als das von die Auflösung unserer Retina. Der Trick ist, dass die Retina bei 25Hz bis 30Hz vibriert, so dass bei gutem Licht ein Neuron mehrere Bildpunkte abbilden kann. Wer gut trainierte Augen hat findet die Interferenzen von LED, Leuchtstoffröhren und langsamen Bildschirmen als unangenehm. Erst ab 100Hz ist das für geschulte Augen nicht mehr wahrnehmbar.
Interessant ist, dass auch die Farben umgerechnet werden. x:=r-g; y:=r+g-b; z:=r+g+b; bevor sie im Hirn verarbeitet werden. Dass wir Grün dann doch wieder als Grün bezeichnen ist eine Frage der Qualia, die erst sehr viel später wieder entschieden wird. Himba können z.b. nicht zwischen Grün und Blau unterscheiden.
Und wo wir gerade beim trainierten Auge sind. Menschen können polarisiertes Licht in der Form von Haidinger-Büscheln sehen, wenn sie es gelernt haben! Meist vermeidet man aber die nötige 3 Sekunden Überbelichtung des Auges per Reflex, und noch schwerer ist es dann den Augenreflex beim Kippen des Kopfes zu vermeiden, um die Büschel dann wirklich zu sehen.
ciao,Michael
Ja über die Sinneswahrnehmung gäbe es viel zu schrieben, wobei es zahlreiche publizierte Werte gibt auch weil die Bestimmung schwer ist. So wird die Auflösung zwischen 60 und 120 Bogensekunden angegeben und ist wohl von Lichtbedingungen und Kontrast abhängig. Bei 60 Bogensekunden entspricht sie rund einem 1/3500 -stel des Abstands (aus 35 cm also 0,1 mm). Man kann mit den Stäbchen höhere Frequenzen erkennen als mit den Zapfen das kann man leicht überpüfen wenn man ein Bild hat das so mit 25 bis 30 Hz Wiederholrate sich aufbaut und man es von der Seite aus den Augenwinkeln betrachtet. Das spielt bei Spielern keine Rolle da schaut man normalerweise frontal aufs Bild.
Das Auge ist auch unglaublich anpassungsfähig. Ich habe einige Augenkrankheiten und als Jugendlicher bekam ich für monate Prismen auf die Brille. Da sieht man zuerst gar nichts mehr, weil der gesamte Strahlungsweg gebrochen ist, aber man gewöhnt sich dran und sieht dann fast wieder normal. Geholfen (es sollte das Augenzittern bessern) hat es aber auch nicht.
Bei Ferngläsern ist es so, dass zumindest wer sie für die Astronomie benutzen will auch die Lichtstärke eine rolle spielt, die erhält man durch Teilen des Durchmessers durch die Vergrößerung. Der wert sollte bei 7 liegen, aber nicht höher weil bei Erwachsenen sich die Pupille auf maximal 7 mm öffnet. Das ist bei gängigen astronomischen Ferngläsern auch gegeben (7X50, 9 x 63, 10 x 70), Bei Tage ist es unwichtig weil sich da die Pupille schließt. Oftmals sieht man bei Biliggläsern die schlechten optischen Eigenschaften auch nur bei wenig Licht.
Ganz vergleichbar mit Ferngläsern sind die Zooms allerdings nicht, denn durch eine geringe Belichtungszeit kann man die Bewegungsunruhe einfrieren. Meine neuere Kamera geht nur bis 12-fach, da wirds schwierig, aber 10-fach schaffe ich noch wenn ich vor dem Auslösen die Luft anhalte. Allerdings benutze ich meist noch das 3 MP Vorgängermodell, eine canon Powershot S1, auch weil die S2 die Batterien so schnell leernuckelt.
Moin,
nochmal ein Nachtrag zu Ferngläser vs. Kameras. Für Ferngläser gab es einen militärischen und nautischen Markt, schon bevor günstige Gläser für Konsumenten produziert wurden. Kameras hingegen waren zuerst im zivilen Markt, und dort dann im reisenden Schaustellergewerbe beliebt. Ich vermute daher gibt es heute noch gute Ferngläser während die Kamera Industrie inzwischen nur noch Einwegkameras produziert.
Selbst die extrem teuren Kameras erlauben es nicht den Sensor auszuwechseln. Mein Traum wäre eine Kamera mit einem auswechselbaren Sensorrevolver, d.h. ein solcher münzgroßer Revolver könnte 3 oder 6 Sensoren bieten, von denen z.b. einer nur Schwarzweis ist, ein anderer eine hohe Auflösung bei Tageslicht bietet, und ein dritter dann die rauschfreie niedrige Auflösung für Zimmerlicht. Das ganze dann auswechselbar, um zum einen andere Sensor Kombinationen zu nutzen, und vor allem, um die Kamera weiter zu nutzen, wenn eine neue bessere Sensortechnologie herauskommt.
ciao,Michael
Ich wollte nochmal anmerken das es natürlich mitnichten so ist das das Auge 400.000 Helligkeitsstufen gleichzeitig wahrnehmen kann. Der Bereich liegt tatsächlich irgendwo bei 4000. 12 Bit würden mit 4096 Abstufungen also ganz gut hinkommen. Außerdem darfst du nicht vergessen, das über das bild noch eine Gammakurve drübergelegt ist.
Quelle: http://pfstools.sourceforge.net/papers/mantiuk07hdr_pipeline.pdf Seite 3
Ich glaube das Auge kann einige Hunderttausend Farben unterscheiden, ich kann mich noch als es „High“ und True Color Grafikkarten gab an die Diskussion erinnern, das Betrachter bei geschickter Farbenwahl keinen Unterschied zwischen 65535 und 16 Millionen Farben wahrnahmen.
Vielleicht wird auch der Dynamikbereich mit der Unterschiedung verwechselt: So ist ein Stern den man gerade noch wahrnehmen kann mehr als 1 Billion mal schwächer als die Sonne, aber man kann ihn nicht neben der Sonne wahrnehmen.
Zu den Reaktionszeiten: Wenn zwei schnelle Spieler online gegeneinander spielen, beide mit 120 ms Reaktionszeit, der eine der beiden aber einen Freesync-Monitor hat und folglich im Schnitt einen halben Frame weniger warten muss, dann ist der Spieler eben 8 ms schneller als sein Mitspieler. Er wird im Schnitt also etwas häufiger die richtige, spielentscheidende Aktion wählen als sein Mitspieler. Allerdings nur etwas häufiger. Hier übertreiben die Autoren der Gaming-Zeitschriften gerne.
Was auch viele Gaming-Autoren ignorieren, sind die teils hohen Latenzen der TFT-Monitore. Diese haben zwar inzwischen allesamt Schaltzeiten im einstelligen Millisekunden-Bereich, aber auf Kosten hoher Latenzen. Wenn der Monitor also bei einem Pixel bei einem bestimmten Frame die Änderung des Bildinhalts feststellt, dann braucht der Monitor zwei bis drei Frames Vorbereitungszeit, um DANN den Wechsel quasi blitzartig vollziehen zu können. Das sind bei 60 fps also durchaus 50 ms, die die Anzeige (und damit zwangsweise auch der Spieler) hinterherhinkt…
Vom Bildeindruck sind aber kurze Schaltzeiten schöner als kurze Latenzen. Beim Film-Schauen oder Office-Arbeiten stören 50 ms sowieso nicht, und beim Spielen stören lange Schaltzeiten meist mehr als lange Latenzen. Und für ein 08/15-Testlabor sind lange Schaltzeiten grey-to-grey einfacher zu messen als lange Latenzen. Denn für letztere muss man ja wissen, wann genau ein Signal die Graka verlassen hat. Für die Schaltzeiten braucht man nur eine Kamera, die 250 fps oder mehr aufnimmt, das können heutzutage schon viele Consumer-Modelle. Also setzen heute alle Monitor-Hersteller auf kurze Schaltzeiten, auf Kosten recht langer Latenzen.
FreeSync hat m.E. auch Vorteile beim ruhenden Desktop: Wenn sich der Bildschirminhalt nicht ändert, braucht man ihn auch nicht neu zu übertragen, und spart etwas Strom. Angesichts dessen, dass viele Laptops inzwischen idle mit nur noch 5 Watt auskommen, können solche Maßnahmen die (idle)-Laufzeit weiter verlängern.