ZITAT(Neonsquare @ 2010-11-12, 12:16) Du gehst scheinbar strikt davon aus, dass sie einfach mal den DxO RAW-Konverter mit ein paar Rauschfilter und Belichtungsanpassungen über die RAW-Daten laufen lassen.[/quote]Das habe ich nicht geschrieben.
ZITAT(Neonsquare @ 2010-11-12, 12:16) Ich glaube nicht, dass die von DxO verkaufte Analysesoftware überhaupt irgendwelche besonderen "Bildverbesserungen" durchführt.[/quote]Du glaubst es. Du weißt aber nicht, was sie macht.
Wenn sie aber die Bildqualität beurteilen will, dann muss Sie überhaupt erstmal ein Bild berechnen. Denn zunächst haben wir nur Ladungen bzw. Spannungen in digitale Werte übersetzt und die, möglicherweise verschlüsselt und komprimiert sowie mit Metadaten versehen, als Raw-Datei abgespeichert. Natürlich ist das jeweilige Raw ein Bildformat, wie von dir geschrieben, aber wie mit Hilfe dieses Bildformats aus der Raw-Datei ein Bild wird, verrät der Kamerahersteller in der Regel nicht, so dass die Raw-Konverter und JPEG-Engines die Spannungen und Ladungen dann unterschiedlich interpretieren:
Das Raw enthält nur indirekt Farbinformationen, vielmehr zunächst mal - wie erwähnt - Ladungsinformationen. Wie übersetze ich Ladungen jetzt in Helligkeiten? Linear? Logarithmisch? Welche Ladung wird auf welchen Grauwert übersetzt? Welche Ladung wird 100 Prozent, welche null Prozent?
Und wie kommen wir nun an die Farbwerte? Die Hersteller setzen Farbfilter vor die einzelnen Pixel. Die Hälfte ist in der Regel grün maskiert, je ein Viertel rot und blau, soweit, so klar. Aber welches rot, grün und blau? Je nach "Geschmack", vielmehr je nach Zielsetzung dürfen unterschiedlich stark ausgeprägte Filter vor die Pixel. Der eine Sensor ist am Ende möglicherweise etwas empfindlicher, dafür bietet der andere die genauere Farbwiedergabe. Von welchen Farbfiltern gehen wir aus? Behandeln wir alle Farben gleich, oder wird das Grün anders übersetzt als das Rot? Nebenbei werden die einzelnen Pixel ja auch noch aus der Umgebung interpoliert.
Wir müssen also kräftig rödeln, um an die RGB-Werte eines Bildes zu kommen. Und tüfteln, bis wir das Raw bestmöglich interpretieren. Noch interessanter wird es jetzt, wenn der Foveon-Sensor oder Fujifilms Spezialitäten ins Spiel kommen. Oder Kodaks Sensoren mit klaren Pixeln. Und so kommt am Ende bei jedem Raw-Konverter (und da beziehe ich die DXO-Labs, die Raw-Dateien in Benchmark-Ergebnisse konvertieren, ein) ein anderes Bild raus. Der eine Konverter arbeitet deutlich Hardware-näher, kommt aber auch nicht ohne Interpretation und Interpolation aus, spuckt aber unter umständen schlechtere Ergebnisse als die JPEG-Engine aus. Der andere Konverter hat mehr Bildoptimierung eingebaut. Welchen wollen wir messen?
ZITAT(Neonsquare @ 2010-11-12, 12:16) Es dürfte nicht sehr viel mehr sein als eine DeBayer-Interpolation - wenn das für die einzelnen Werte überhaupt nötig sein sollte. Ansonsten wären teilweise auch die Abstände zwischen Sony und Nikon beim Rauschen bereits früher näher beisammen gelegen.[/quote]Vermutest du. Und findest bei den DXO-Labs keine Informationen, was Sie tatsächlich mit einem Raw machen und an ihm messen. Wir haben ja die Tage schon festgestellt, dass wir nichtmal wissen, was die DXO-Labs für einen ISO-Wert halten.