mit der Dynax 7D kann ich, im JPG Modus, drei Bildgrößen auswählen, nämlich 3008 x 2000 (~ 6,1 MB), 2256 x 1496 (~3,4 MB) oder 1504 x 1000 (~1,5 MB). Wird bei der jeweiligen Auswahl, der Sensor unterschiedlich ausgenutzt? 1. Möglichkeit : 6,1 MB = volle Kapazität 2. Möglichkeit : 3,4 MB = halbe Kapazität 3. Möglichkeit : 1,5 MB = viertel Kapazität Skaliert die Kamera das von sich aus? Wo ist meine Wissenslücke? Ich hoffe, ich habe mich verständlich ausgedrückt.
Zwar bin ich kein Experte, trotzdem wage ich es mal, meinen Senf dazuzugeben.
Der Sensor wird wohl immer voll benutzt und ausgelesen. Die Auflösungsreduktion erfolgt dann im Bildbearbeitungs-Prozessor. Durch die Bayer-Matrix ist eine Sensor-basierte Reduktion der Auflösung nicht gerade trivial. Wenn dann noch das Verhältnis zwischen Quell-Auflösung und Ziel-Auflösung nicht einfach ist (1:2, 1:3, 1:4 etc.), gibt's schnell hässliche Treppchen. Ausserdem ist die hardwarebasierte Skalierung von Bildgrössen in Prozessoren eine einfache Übung.
ZITAt (josefnemecek @ 1.03.2006 - 0:41) … eine Sensor-basierte Reduktion der Auflösung nicht gerade trivial … die hardwarebasierte Skalierung von Bildgrössen in Prozessoren …[/quote] /blink.gif" style="vertical-align:middle" emoid="" border="0" alt="blink.gif" /> Wie meinen? Ich verstehe nicht so ganz, was Du damit meinst. Weder der Sensor selber skaliert, noch kenne ich eine Hardware, die skaliert.
Richtig ist der Kern der Aussage, dass der ganze Sensor zur Aufnahme benutzt wird, und das Bild anschließend von der kamerainternen Software auf die eingestellte Größe reduziert wird. Theoretisch könnte man bei gewissen Ausgabegrößen auch mehrere Pixel zusammenfassen - sogen. Binning -, das hätte mE sogar Vorteile. Das geht aber nur bei CMOS-Sensoren, aber ich glaube, Canon macht das auch nicht.
ZITAt (Dennis @ 1.03.2006 - 12:59) /blink.gif" style="vertical-align:middle" emoid="" border="0" alt="blink.gif" /> Wie meinen? Ich verstehe nicht so ganz, was Du damit meinst. Weder der Sensor selber skaliert, noch kenne ich eine Hardware, die skaliert.[/quote] Der Sensor skaliert gar nix. Der liefert nur die 6.1 Millionen Werte, welcher ein Mikroprozessor ausliest. Im Mikroprozessor wird dann gerechnet, dass die Schwarte kracht.
Nicht-ganzzahlige Skalierungen werden jedoch - sehr wahrscheinlich - von speziellen Schaltungen auf dem Prozessor abgearbeitet. Der Mikroprozessor hat bei bikubischen und anderen Approximationen seine liebe Mühe. Ich kann mir deshalb sehr gut vorstellen, dass der Prozessor ein Bild in einen Zwischenspeicher lädt und dann spezialisierte Hardware die Skalierung vornimmt. Das skalierte Bild würde dann auf die Karte kommen. Würde ich als als Prozessordesigner wohl so machen und wird bei Grafikpipelines auf 3D-Karten auch so gemacht. Sofern Performance ein Problem darstellt. Auch DSPs und andere Spezialchips haben Spezialbefehle, z.B. für FFT-Berechnungen, Matrixmultiplikationen, Vektorprodukte, Memory-Copy etc.
Ändert aber nichts daran, dass der Sensor wohl immer komplett ausgelesen wird, egal wie hoch die Ausgabeauflösung sein wird. Einzige mir bekannte Ausnahme ist die Nikon-DSLR, welche je nach Bildzahl pro Sekunde einen kleineren Bereich ausliest und verarbeitet. Dort kann es jedoch sein, dass die Einschränkung bei hohen Bildzahlen durch die Rechengeschwindigkeit des Prozessors und nicht durch den Sensor gegeben ist.
ZITAt (josefnemecek @ 1.03.2006 - 14:22) Der Sensor skaliert gar nix. Der liefert nur die 6.1 Millionen Werte, welcher ein Mikroprozessor ausliest. Im Mikroprozessor wird dann gerechnet, dass die Schwarte kracht.
Grüsse, Josef.[/quote]
Hallo Josef und hallo Dennis,
Ihr habt mich etwas schlauer gemacht. Danke für die Information.