ZITAt (Peter Lehner @ 2007-09-19, 16:45) ZITAt (Screamapillar @ 2007-09-19, 16:32) Mal eine ganz andere Idee:
Soweit Ich weis, lassen sich beim CMOS Sensor Pixel einzeln auslesen.
Wenn dies soweit richtig wäre, dann wäre doch eine partielle Belichtungssteuerung möglich...
Sprich, der Belichtungsmesser (wenn er denn den Kontrastumfang erfassen könnte) misst, dass es in der gemessenen Szene große Kontrastunterschiede gibt.
Zum Beispiel dunkler Strassenzug mit hellen Wolken am Himmel.
Jetzt öffnet der Verschluss. Die Pixel, die den Himmel "abbekommen" werden nicht weiter ausgelesen, die dunklen Bereiche werden aber noch bis zum "Optimum" ausgelesen.
Sprich, für sehr helle Bereich gilt eine virtuelle kurze Verschlusszeit, für dunkle die "normale" Verschlusszeit.
Das Ergebnis wäre ein Bild wie mit DRO, nur "echt" und nicht künstlich aufgehellt.
Da Ich mich aber nicht eingehend mit Elektronik, Sensoren, Signalverarbeitung etc. pp. auskenne, habe Ich keine Ahnung, ob das so überhaupt funktionieren kann.
Habt also Nachsicht, wenn das eine zu naive/blöde Vorstellung ist /wink.gif" style="vertical-align:middle" emoid="" border="0" alt="wink.gif" />
Gruß,
Jan[/quote]
/smile.gif" style="vertical-align:middle" emoid="" border="0" alt="smile.gif" /> Genau das macht DRO-Funktion der Sony. Die dunkle Bereiche werden aufgehellt und die hellen Partien abgedunkelt. Die Alpha 700 kennt 5 Dynamic Range Optimierungstufen.
Gruss
Peter
[/quote]
Bist Du dir da sicher, Peter? Mein Verständnis ist auch eher das von ingobohn. Sonst würde der mechanische Verschluss ja keinen Sinn mehr machen (es gibt auch irgendeine spezielle CMOS-Technik ohne Verschluss, aber, soweit ich das verstanden haben, ist die noch nicht für diese Art von Kameras realisierbar. Dann wäre wohl genau das möglich, was Screamapillar meint). Ich stelle mir das, naiv, so vor: Jeder Pixel ist wie ein Glas, das 255 Volumeneinheiten fasst. Verschluss auf, Licht/Wasser Marsch, Verschluss zu. Dann, bei der A/D-Wandlung, je nach eingestellter ISO, die aufgefangene Menge höher oder niedriger bewerten. Hierbei bestenfalls könnten dann die Daten der Mehrfeldbelichtungsmessung einfliessen, nicht aber während der Belichtung. Wenn der Verschluss auf ist, kann das Glas/der Pixel überlaufen, sozusagen, und dann is Essig.
Bei analogem Film stelle ich mir das anders vor: das Glas füllt sich nicht proportional zur Menge darauffallenden Lichts/Wassers, sondern zunächst schneller, dann immer langsamer, bei stetigem "Beschuss". Zuerst reichen vielleicht 128 Einheiten, um das Glas halb zu füllen. Die nächsten 128 Einheiten reichen nur noch, um es bis zum Stand von 3/4 zu füllen, und so weiter - kann das jemand bestätigen oder widerlegen? Wenn die Sensoren sowas könnten, wäre es vielleicht ideal.
Andersrum: 12Mio. Bildpunkte im gleichen Bruchteil einer Sekunde jeweils mit der Belichtungsmessung vergleichen, ein "Messende" zu bestimmen und dem Pixel das Messende mitzuteilen, das klingt doch ziemlich anspruchsvoll, oder? Vermutlich scheitert es schon daran, dass die Pixel eben nicht einzeln angesteuert, bzw. ihre Signale nicht einzeln verstärkt oder abgedämpft werden können.
Was ich mich nicht verstehe: Wenn in einer Belichtungsmesswabe ein Spitzlicht ist, werden dann alle Pixel, die innerhalb dieser Wabe liegen, dunkler? Sicher nicht, sonst müsste man ja in den Bildern wabenförmige Felder erkennen können, oder? Ich vermute, dass die vielen Messwaben nur dazu dienen, Bereiche mit besonders stark abweichender Helligkeit zu bemerken (so dass diese also nicht in größeren Waben untergehen/durch das Dunkel drumherum nivelliert werden), um dann die Belichtung insgesamt runterzuregeln. Dass sich die Datenverarbeitung für einzelne Bildbereiche unterschiedet, kann ich mir derzeit nicht vorstellen.
So, nach den Esoterikern jetzt mal die Wissenschaftler melden!
Gruß
Neki