Hallo,
es ist nicht leicht zu Antworten, aber ich will mal einen Anfang wagen.
ZITAT(u. kulick @ 2010-10-17, 3:01) Das weiß Nikon offensichtlich und nutzt nur die 12 rauschärmsten Bits aus den 14-Bit-A/D-Wandlern. Ich sag doch: Die haben auch ihre Tricks, rauschärmere Signale aus dem CMOS-Chip rauszuholen. Wir haben pro Farbe und Pixel 12 verwertete Bit bei Nikon, http://www.digitalkamera.de stellt das dann als 42 Bit Farbtiefe dar, für jede Farbe rot blau grün wird aber nur 12 Bit-Helligkeits-Stufung ermittelt, da kann die Farbtiefe auch nur 36 Bit sein wie http://www.digitalkamera.de das auch für die Sony angibt.
Es gibt Leute, die glauben, die 14 Bit bringen doch was. siehe http://www.earthboundlight.com/phototips/n...sus-12-bit.html[/quote]
Die angeblich "rauschärmeren" Nikon Bilder sind defakto nicht existent. Nikon bearbeitet das Datenmaterial lediglich vor dem abspeichern als RAW-Datei intensiver als Sony. Die Testaufnahmen sind zwar nicht gerade ideal (etwas anderer Abbildungsmassstab, das A900 Bild ist vor allem etwas verkantet und somit rechts an der Skala deutlich außerhalb der Fokusebene usw.), aber wenn du dir die Mühe machen willst und z.B. die ISO 6400 High ISO NR OFF RAW Dateien von imaging-resource.com der A900 (AA900hSLI6400_NR_OFF.ARW) und der D3x (D3XhSLI6400_NR_OFF.NEF) herunterlädst und mal durch einen der Adobe RAW Konverter LR3 oder ACR6.2 jagst wirst du feststellen, dass das A900 Bild mühelos auf das D3x Bild gebracht werden kann. Man muss nur die Regler für ColorNR, LuminanzNR, Details usw. bei der A900 etwas anders (meist stärker) aufdrehen, als bei der D3x, und da siehst du wie viel die Nikon bereits in der Kamera vor schreiben des RAW an den Daten rechnet, denn du kannst aus dem A900 ARW ein hinsichtlich des Detail/Rauschverhältnisses absolut identisches Bild zum D3x NEF erzeugen.
Die Nikon rechnet das IMHO in der Kamera übrigens sehr gut, was man, wenn man nicht mit diesen hochwertigen RAW-Konvertern arbeitet natürlich durchaus als Vorteil für die Nikon werten kann.
Das zeigt aber auch, dass der ganze im Internet millionenfach gehypte "Nikon Signalverarbeitungsvorsprung" nicht auf hardwaretechnischer Überlegenheit beim auslesen des Sensors, sondern lediglich aus ein paar zeilen EBV-Code vor dem abspeichern des RAWs beruht. Um aus der A900 die gleiche Qualität zu holen musst du also auf die externe Software setzen, was gar kein so großer Nachteil ist, denn die ist ja für ein qualitativ hochwertiges Endprodukt sowieso unabdingbar.
Jetzt nochmal zum Thema 12 und 14 Bit.
Bald ist wieder die Vierschanzentournee, ja das Skispringen meine ich. Stell dir vor du sitzt als Weitenrichter an der Seite des Aufsprunghügels. Die Skispringer springen einer nach dem anderen den Hügel herunter. Deine Aufgabe ist es die Sprungweite anhand der in den Hügel gezogenen Linien
zu ermitteln. Stellen wir uns vor, da wären Linien im Anstand von 0,5m gezogen. Deine Aufgebe wäre es nun die Sprungweite für jede Startnummer durch Beobachtung mit deinem Auge aus 30m Entfernung zu bestimmen. Du übermittelst also Wertepaare wie folgt:
Startnummer; Weite
94; 117m 51cm
95; 121m 3cm
usw.
Beim nächsten Springen erscheint ein in grauem Sakko gekleideter Herr, und gibt allen Weitenrichtern, also auch dir, die Anweisung die Weite künftig auf eine Genauigkeit von 1/100 mm anzugeben, weil sich das viel besser vermarkten lässt.
Also schreibst du ab jetzt Wertepaare wie folgt auf:
Startnummer; Weite
104; 117m 50cm 1mm 3 hundertstel Millimeter
105; 121m 3cm 4mm 1 hundertstel Millimeter
106; 121m 3cm 4mm 2 hundertstel Millimeter
usw.
und wunderst dich natürlich was das soll. Dein Auge ist bei der Geschwindigkeit und der Entfernung nich annähernd in der Lage sinnvolle Werte für die 1/100 anzugeben, ja selbst die Angabe von mm Werten scheinen dir, nicht grundlos, unsinnig. Bei Startnummer 105 könnte ja schon eine Schneeflocke gelegen haben, die bei 104 etwas weiter rechts im Aufsprung nicht die Weite begrenzt hat usw. usw.
Fazit es macht für eine gegebene physikalische Größe gar keinen Sinn digitale Werte in einer Genauigkeit anzugeben, die der Beobachter/Messdatenerfassung
gar nicht in der Lage ist sinnvoll zu liefern. Oder hättest du ein gutes Gefühl wenn Springer 106 das springen gewinnt wegen dem von dir bewerteten 1/100 mm Vorsprung? Genauso hättest du würfeln können wer Sieger wird.
So ähnlich ist es bei unseren derzeitigen Sensoren, die Bits 13 und 14 bringen praktisch nichts, man könnte sie genausogut auswürfeln. Es bringt einem Bild nichts, dass das was auf einem Bild schwarz ist, theoretisch um 4 Blenden aufgehellt noch marginal mehr Details auflösen würde, und das auch nur, wenn bei heutigem technologischen Stand niedrigste ISO und kühle Sensortemperatur zusammentreffen.
Selbst ein mit 12 Bit ausgelesener Bayer Sensor liefert ja zumindest theoretisch, abhängig vom Demosaikverfahren bereits eine sensationell gute Abstufung.
Dazu folgendes Denkmodell für ein simplifiziertes 12 Bit Bayer Demosaik:
Angefangen bei Schwarz:
R G B
0 0 0
0 1 0
1 1 0
1 1 1
1 2 1
könntest du bis hinauf zu Weiß
4095 4095 4095
entsprechend 2 hoch 36 = 68719476736 verschiedene Farb- und Helligkeitswerte für ein interpoliertes Pixel unterscheiden.
D.h. lediglich für die reinen Grundfarben (was rein theoretischer Natur, in der Praxis aber völlig unmöglich wie z.B. 0 0 4095 ist) würde sich die Abstufung für das interpolierte Pixel auf 12 Bit erniedrigen.
Ich jedenfalls, hab das Thema 12 via 14 Bit für mich, allerdings nach eingehenden Versuchen mit einer Canon ad akta gelegt. Ich konnte bei praktischen Aufnahmen, und noch so intensivem Pixelpeeping nie einen Unterschied ausmachen.
BG Hans