nur mal so eine Frage an die Auskenner der Szene /cool.gif" style="vertical-align:middle" emoid="" border="0" alt="cool.gif" />, wäre es nicht möglich einen Chip zu entwickeln, der nicht durch eine bestimmte Belichtungszeit x funktioniert, sondern z.B. durch 40 Mio einzelne Pixel auf eiem KB-Format Chip, wobei jedes einzelne Pixel den Idealbelichtungswert ermittelt und abbildet (ähnlich wie unser Auge). Es würde in keinem Bild mehr unterbelichtete oder überbelichtete Bereiche geben. Man könnte eine zusätzliche Hardware in die Kamera bauen, die, wo gewünscht, dann aber doch solche Bilder realisiert (Silhouettenbilder), wäre das nicht was... /wink.gif" style="vertical-align:middle" emoid="" border="0" alt="wink.gif" /> .
Meine Vermutung bezüglich der funktion von DRO bei der Alpha war ja zuerst sowas. Ich hatte angenommen, dass die Kamera mittels der 40 wabenmessfelder die helligkeit im bild schon vorab abschätzt und dann dementsprechend die verstärkung vor dem adwandler für die verscheidenen regionen auf dem bild anpasst. Das würde den nutzbaren Dynamikumfang doch erheblich erhöhen, oder?
#3 von
Tyler Durden
(
gelöscht
)
, 20.12.2006 00:27
ZITAt (japro @ 2006-12-20, 0:09) Ich hatte angenommen, dass die Kamera mittels der 40 wabenmessfelder die helligkeit im bild schon vorab abschätzt und dann dementsprechend die verstärkung vor dem adwandler für die verscheidenen regionen auf dem bild anpasst. Das würde den nutzbaren Dynamikumfang doch erheblich erhöhen, oder?[/quote] Diese verbesserte, da in Hardware realisierte, DRO-Funktion wird sicher Sony als erster Hersteller in Kameras einbauen.
ZITAt (japro @ 2006-12-20, 0:09) Meine Vermutung bezüglich der funktion von DRO bei der Alpha war ja zuerst sowas. Ich hatte angenommen, dass die Kamera mittels der 40 wabenmessfelder die helligkeit im bild schon vorab abschätzt und dann dementsprechend die verstärkung vor dem adwandler für die verscheidenen regionen auf dem bild anpasst. Das würde den nutzbaren Dynamikumfang doch erheblich erhöhen, oder?[/quote]
wobei ich festgestellt habe, das bei DRO und DRO+ das Rauschen erheblich zunimmt, selbst bei ISO 100 und 200.
ZITAt (Fischvati @ 2006-12-20, 0:32) wobei ich festgestellt habe, das bei DRO und DRO+ das Rauschen erheblich zunimmt, selbst bei ISO 100 und 200.[/quote] Naja, weil DRO scheinbar einfach partiell das Bild aufhellt... in Software. Das HardwareDRO so wie ich es mir denke würde ja auch den dynamikumfang der RAW erhöhen (so quasi 16bit raw aus 12bit AD-Wandler).
Idealbelichtungswert für ein Pixel ... da fallen mir sofort die 18% grau ein, auf die die meisten Belichtungsmesser als natürliches Mittel einer normalen Aufnahme geeicht sind.
Wenn man nun jeden Pixel hierauf eicht, dann würde das eine "bunte Soße" ohne hell/dunkel Kontrast ergeben. Meines Erachtens nicht sehr sinnvoll.
Eher bin ich der Meinung, dass es die Zielsetzung der Chiphersteller sein sollte Chips zu entwickeln, die über einen möglichst großen Kontrastumfang verfügen. Damit man in den Schatten und Lichtern noch genügend Reserven für die Korrektur der Belichtung hat.
Stimmt, wo Licht ist --> ist auch Schatten, /pardon.gif" style="vertical-align:middle" emoid="ardon:" border="0" alt="pardon.gif" /> ...und das soll auch so bleiben! /rolleyes.gif" style="vertical-align:middle" emoid="" border="0" alt="rolleyes.gif" /> Aber bitte kein nur Schwarz oder nur Weiß /cool.gif" style="vertical-align:middle" emoid="" border="0" alt="cool.gif" />
ZITAt (Fischvati @ 2006-12-19, 23:42) nur mal so eine Frage an die Auskenner der Szene /cool.gif" style="vertical-align:middle" emoid="" border="0" alt="cool.gif" />, wäre es nicht möglich einen Chip zu entwickeln, der nicht durch eine bestimmte Belichtungszeit x funktioniert, sondern z.B. durch 40 Mio einzelne Pixel auf eiem KB-Format Chip, wobei jedes einzelne Pixel den Idealbelichtungswert ermittelt und abbildet[/quote]
Hmm, was ist der "Idealbelichtungswert"? Mittlere Helligkeit? Wenn sich jeder Sensorpunkt auf mittlere Helligkeit kalibrieren wuerde, dann kaeme ein einheitlich graues Bild raus.
ZITAt (Fischvati @ 2006-12-19, 23:42) (ähnlich wie unser Auge)[/quote]
Unser Auge arbeitet aber nicht so.
ZITAt (Fischvati @ 2006-12-19, 23:42) Es würde in keinem Bild mehr unterbelichtete oder überbelichtete Bereiche geben.[/quote]
Das ist aber was anderes. Was du hier meinst ist der Dynamikumfang. Den kann man im Wesentlichen dadurch erhoehen, dass man Sensorpunkte verwendet, die eine groessere Ladung aufbauen koennen. Das laeuft dann hauptsaechlich auf groessere Sensorpunkte raus, und das steht dann wieder im Widerspruch zum Verlangen nach immer mehr Pixeln bei gleicher Sensorflaeche. Die Hersteller muessen da wieder einen Kompromiss finden, so wie mit allen anderen Eigenschaften auch.
ZITAt (Michael H @ 2006-12-20, 9:07) ZITAt (Fischvati @ 2006-12-19, 23:42) (ähnlich wie unser Auge)[/quote] Unser Auge arbeitet aber nicht so. [/quote] An dem was wir sehen ist nicht nur das Auge sondern auch unser Gehirn beteiligt. Ähnlich wie beim Hören.
Andererseits sind wir mit dem aufgenommen Bild, wenn es 1:1 von der Kamera umgesetzt wird, nicht zufrieden. - zu flau - zu grau Auch wenn die Realität (Licht/Auge/Gehirn) so aussieht.
Aber da ist man schon schnell beim Licht und dessen Bedeutung für eine Aufnahme.
ZITAt (AxelF @ 2006-12-20, 8:42) Idealbelichtungswert für ein Pixel ... da fallen mir sofort die 18% grau ein, auf die die meisten Belichtungsmesser als natürliches Mittel einer normalen Aufnahme geeicht sind.
Wenn man nun jeden Pixel hierauf eicht, dann würde das eine "bunte Soße" ohne hell/dunkel Kontrast ergeben. Meines Erachtens nicht sehr sinnvoll.[/quote]
Würd ich auch so sehen.
ZITAt (AxelF @ 2006-12-20, 8:42) Eher bin ich der Meinung, dass es die Zielsetzung der Chiphersteller sein sollte Chips zu entwickeln, die über einen möglichst großen Kontrastumfang verfügen. Damit man in den Schatten und Lichtern noch genügend Reserven für die Korrektur der Belichtung hat.[/quote]
Ich könnt mir da eine degressive Kennlinie des Sensors vorstellen. Je mehr Photonen seit Beginn der Belichtungsmessung registriert wurden, um so weniger macht ein weiters aus, wodurch die Sättigung erst sehr viel später erreicht wird. Schwierig stelle ich es mir vor die Sensorkennlinie so hinzubiegen, dass sie ein Ergebnis bewirkt, welches auch zu unserem Emfinden passt.
Wünsche an Sensor/Sensorsystem der Zukunft: - Kleinbildformat - 3 Sensoren - - pro Farbkanal ein Sensor - - für super Farbtreue - - für mehr Empfindlichkeit im Restlicht (z.B. Kerzenlicht zu Weihnachten) - weitere Verringerung des Rauschens bei hohen ISO - - ohne Nuancen und feine Strukturen "glattzubügeln"
ZITAt (Michael H @ 2006-12-20, 9:07) Was du hier meinst ist der Dynamikumfang. Den kann man im Wesentlichen dadurch erhoehen, dass man Sensorpunkte verwendet, die eine groessere Ladung aufbauen koennen.[/quote]Oder analog zum Auge oder Film, indem man ein Medium mit einer stark nicht-linearen Kennlinie verwendet. Ich sehe eigentlich eher darin die Vision, vielleicht irgendwelche "organischen" Chips mit "Highlight Compression", quasi eine künstliche Retina.
ZITAt (Anjax @ 2006-12-20, 11:24) - 3 Sensoren - - pro Farbkanal ein Sensor[/quote]
Das hatten wir frueher mal (RD-175, RD-3000). Diese Kameras sind im Vergleich teuer, wesentlich klobiger und lichtschwaecher als Kameras mit einem Sensor. So eine Kamera kann man heutzutage nicht mehr verkaufen.
ZITAt (Michael H @ 2006-12-20, 15:22) ZITAt (Anjax @ 2006-12-20, 11:24) - 3 Sensoren - - pro Farbkanal ein Sensor[/quote]
Das hatten wir frueher mal (RD-175, RD-3000). Diese Kameras sind im Vergleich teuer, wesentlich klobiger und lichtschwaecher als Kameras mit einem Sensor. So eine Kamera kann man heutzutage nicht mehr verkaufen. [/quote]
1 Sensor: Ein Bildpixel setzt sich aus mehren Sensorpixeln (Grün, Blau, Rot) zusammen. - Auflösungsverlust - Lichtverlust, da einzelner Sensorpixel nur einer Farbe zur Verfügung steht.
3 Sensoren: Sensor Blau (alle Sensorpixel stehen für Blau zur Verfügung) Sensor Rot (alle Sensorpixel stehen für Rot zur Verfügung) Sensor Grün (alle Sensorpixel stehen für Grün zur Verfügung) Ein Bildpixel setzt sich aus 3 Sensorpixeln (1 Pixel pro Sensor) zusammen. - Strahlengang wird in 3 Teile zerteilt (Prisma) und zu den 3 Einzelfarbsensoren geleitet. = Lichtverlust duch Strahlengangaufteilung - kein Auflösungsverlust