zufällig heute gefunden: Link zu imatest, noch so einem Unternehmen der Test-Industrie - Liefert Digitalbildqualitätstest-Software
zufällig heute gefunden: Link zu imatest, noch so einem Unternehmen der Test-Industrie - Liefert Digitalbildqualitätstest-Software
Beiträge: | 3.273 |
Registriert am: | 30.05.2005 |
QUOTE (u. kulick @ 2010-11-16, 0:20) zufällig heute gefunden: Link zu imatest, noch so einem Unternehmen der Test-Industrie - Liefert Digitalbildqualitätstest-Software[/quote]
Leider liefern sie das Know-how, wie man Tests ordentlich durchführt, nicht mit. Und deswegen kommt sowasdabei raus: die Bankrott-Erklärung der Tester.
Beiträge: | 1.037 |
Registriert am: | 05.02.2006 |
QUOTE (Neonsquare @ 2010-11-16, 11:10) Was haben sie denn falsch gemacht?[/quote]
Sie haben versucht, anhand von JPEGs die Vignettierung zu bestimmen. Das ist zumindest beim EF24/1.4L und beim EF35/1.4L gründlich in die Hose gegangen.
Deswegen ja auch der Hinweis auf dieser Seite. Und die Erkenntnis ist nicht auf eigenem Mist gewachsen, da musste man schon nachhelfen.
Völlig unverständlich ist auch, dass man ZF-Objektive per Adapter an EOS-Kameras getestet hat, statt z.B. an einer D3x. Da wäre der Fehler bei der Vignettierungsmessung nicht so drastisch ausgefallen.
Beiträge: | 1.037 |
Registriert am: | 05.02.2006 |
ZITAT(u. kulick @ 2010-11-15, 5:27) ZITATUnbelichteter Film = Raw. Belichteter Film = entwickeltes Raw oder JPEG.[/quote]Das ist kompletter Unsinn[/quote]Sorry, mein Fehler. Ich habe es oben korrigiert. Wie ich beschrieb, muss ich den Film wie das Raw erst entwickeln. Wie, hängt vom Entwickler ab.
ZITAT( @ 2010-11-15, 10:26) ZITAT(mts @ 2010-11-15, 0:29) Eben. Ein Container, in dem dann die aufgezeichneten Ladungen nach der Analog-Digital-Wandlung stehen. Im Tiff stehen für jedes Pixel die Farbwerte, die das Raw noch nicht kennt. Dass ein Raw kein Tiff ist, beschreibt Herr Wüller ja. Wenns so wäre, bräuchten wir uns hier ja nicht zu unterhalten.[/quote]Das mit den "aufgezeichneten Ladungen" ist relativ irreführend, weil es impliziert, dass heutige RAW-files tatsächlich exakt die gemessenen Sensordaten enthalten. Das ist allerdings nicht der Fall. Es macht mehr Sinn, RAW-files lediglich als weitere Variante für die Speicherung von Farbdaten anzusehen. Die meisten RAW-Files sind tatsächlich TIFF - wenn Wüller da etwas anderes behauptet, dann liegt er falsch. Es gibt unzählige Varianten von TIFF und die besonderheit ist eben gerade, dass nicht definiert ist, welche Farbkanäle es in den Daten geben kann.[/quote]"Exakt" habe ich nicht geschrieben. Der Hersteller digitalisiert - wie auch immer - die Sensordaten. Er orientiert sich bei dessen Speicherung möglicherweise am Tiff-Format. Der Punkt ist der, dass nur der Hersteller weiß, wie er das Dateiformat übersetzt haben will.
ZITAT(Neonsquare @ 2010-11-15, 10:26) ZITAT(mts @ 2010-11-15, 0:29) Eben. Das Raw-Bild sind viele Bilder. Je nach Entwicklung. Insofern ist es schwierig, auf der Suche nach standardisierten Tests, auf der du bist, allgemeingültige Informationen aus dem Raw holen zu wollen. Ich muss das Raw halt erst abziehen, um an ein Bild zu kommen, das ich untersuchen kann.[/quote]Das ist nicht korrekt. Wie ich mittlerweile ja nachgetragen habe, analysiert DxO tatsächlich auf den RAW-Pixeldaten - also dem, was Du immer als "Ladungen vom Sensor" bezeichnest. [/quote]Und muss dazu die Raw-Pixeldaten in irgendeiner Form interpretieren, also übersetzen.
ZITAT(Neonsquare @ 2010-11-15, 10:26) Auch dein "RAW-Bilder sind viele Bilder" Lemma ist irreführend. Mit dem umgekehrten Prozess könnte man auch aus jedem RGB-Bild (JPEG) ein RAW zu einer Kamera erzeugen. Auch hier entstünde je nach Eingangsparameter ein unterschiedliches RAW.[/quote]Und? Ich verstehe nicht, was du sagen willst.
ZITAT(Neonsquare @ 2010-11-15, 10:26) Sogar ein JPEG ist eigentlich "viele Bilder". Viele JPEGs werden fürs Web ohne Farbprofil abgelegt - dann ist die exakte Dekodierung eigentlich Interpretationssache.[/quote]Nein. Vereinbarungssache. Entweder vereinbare ich ein Farbprofil, oder - was die Regel ist - ich verstehe das Bild als sRGB. Wer so blöd ist und sein Farbprofil vergisst, ist selbst schuld.
ZITAT(Neonsquare @ 2010-11-15, 10:26) Außerdem sind die JPEG-Decoder durchaus von unterschiedlicher Qualität - denn JPEG muss ebenfalls erst rekonstruiert werden (JPEG = diskrete Cosinustransformation) und die dafür benutzten Algorithmen sind unterschiedlich. Last not least werden Bilder selten am Bildschirm in ihrer tatsächlichen Pixelgröße dargestellt - sie müssen also skaliert werden. Diese Skalierungsalgorithmen sind ebenfalls sehr unterschiedlich in der Qualität und unterscheiden sich teilweise erheblich in der Bildwirkung.[/quote]Und? Das JPEG ist im Gegensatz zum Raw normiert, es ist klar, wie das Bild rekonstruiert werden muss.
ZITAT(Neonsquare @ 2010-11-15, 10:26) Du hattest behauptet sie entwickeln die RAWs mit ihrer Endkunden-RAW-Konverter-Software[/quote]Nein, das hatte ich nie behauptet.
ZITAT(Neonsquare @ 2010-11-15, 10:26) Die Frage ist nämlich nicht "wie" DxO die RAWs entwickelt sondern "ob" - und die Antwort habe ich zuerst stark vermutet und mittlerweile belegt: Sie entwickeln die RAWs nicht vor der Analyse.[/quote]Sie können die Bilder nicht analysieren, ohne die Bilder zu entwickeln bzw. zu konvertieren. Offenbar verstehen wir zwei unter dem Begriff etwas anderes.
Vielleicht komme ich dir näher, wenn ich frage, wie sie die Raws verstehen, wie sie sie übersetzen, wie sie sie interpretieren?
ZITAT(Neonsquare @ 2010-11-15, 10:26) ZITAT(mts @ 2010-11-15, 0:29) Was nützt und der tollste Film, wenn es keinen Entwickler gibt, welcher den Film unterstützt?[/quote]Seltsame Metapher. Die R, g und B-Werte der einzelnen Sensels sind bekannt. Ebenso der Wertebereich.[/quote]Du weißt aber nicht, als welches Rot, grün und blau die Zahlen wie interpretiert werden wollen. Ist halt nicht normiert und unterschiedlich. Während es Standard-Entwickler gibt, gibt es für neue Kameras neue Raw-Konverter.
ZITAT(Neonsquare @ 2010-11-15, 10:26) Das ist trivial.[/quote]Sorry, wenn ich mich nicht auf platte und arg verkürzte Aussagen festnageln lasse.
Beiträge: | 3.087 |
Registriert am: | 05.02.2003 |
ZITAT(mts @ 2010-11-16, 13:01) ZITAT(u. kulick @ 2010-11-15, 5:27) ZITATUnbelichteter Film = Raw. Belichteter Film = entwickeltes Raw oder JPEG.[/quote]Das ist kompletter Unsinn[/quote]Sorry, mein Fehler. Ich habe es oben korrigiert. Wie ich beschrieb, muss ich den Film wie das Raw erst entwickeln. Wie, hängt vom Entwickler ab.
[/quote]
Ist trotzdem noch falsch. Es stimmt nicht, dass die RAW-Pixeldaten erst entwickelt werden MÜSSEN.
ZITAT(mts @ 2010-11-16, 13:01) "Exakt" habe ich nicht geschrieben. Der Hersteller digitalisiert - wie auch immer - die Sensordaten. Er orientiert sich bei dessen Speicherung möglicherweise am Tiff-Format. Der Punkt ist der, dass nur der Hersteller weiß, wie er das Dateiformat übersetzt haben will.[/quote]
Wie der Hersteller es übersetzt haben will ist völlig uninteressant. Beschränkt auf Kameras mit Bayer-Sensor, die Bayer-Matrix-Daten liefern ist es lediglich eine Frage der Anordnung der Werte in der Datei. Das lässt sich sogar empirisch ermitteln. Glücklicherweise ist das nichteinmal nötig, denn dcraw enthält diese Informationen bereits zu nahezu allen verbreiteten Kameras. Man kann mit Dcraw die RAW-Daten in einem einheitlichen Format auslesen OHNE eine Interpolation durchzuführen. Trotzdem möchte ich nocheinmal betonen - es ist NICHT so, dass die Bayer-Daten der verschiedenen Kameras irgendwie inkompatibel/unvergleichbar wären - es ist bei allen das gleiche Prinzip. Wenn es Unterschiede gibt, dann ist es wünschenswert diese bei der Analyse herauszufinden.
Nochmal zu dem was Hersteller übersetzt haben wollen: Natürlich kann es Hersteller geben, die Mängel ihrer Systeme durch nachträgliche Softwarekorrekturen ausgleichen wollen. Entsprechend wird wohl auch gegenüber den großen Konverterherstellern Druck ausgeübt - es macht aber wenig Sinn diesem Druck bei der Analyse der RAW-Daten nachzugeben. Wenn die RAW-Daten Schwächen aufweisen, die im Postprocessing korrigiert werden müssen, dann soll die Analyse diese Schwächen auch zeigen.
ZITAT(mts @ 2010-11-16, 13:01) Und? Ich verstehe nicht, was du sagen willst.[/quote]
Ganz einfach: Du argumentierst immer, dass RAW ja "viele Bildinterpretationen" bedeutet. Das trifft ebenso auf jedes andere Format zu. Natürlich sind die Möglichkeiten ein RAW umfangreicher - aber das bedeutet nicht, dass es keine klare Testinterpretation geben könnte, wenn man zum Test ein Bild tatsächlich entwickeln wollte. Bei einer kontrollierten Studioaufnahme mit Testchart fester Beleuchtung und allem drum und dran sollten die RAW-Files der Kameras auch zu vergleichbaren Bildern entwickelbar sein. Möchte man wirklich mit Farbkorrektheit arbeiten, dann lassen sich selbst die RAW-Daten ganz neuer Kameras anhand von Farb-Test-Charts eichen indem ein spezifisches Kameraprofil berechnet wird. Bei dcraw kann man diese Profile übergeben. Mit deiner Behauptung möchtest Du jedoch offenbar leugnen, dass man mit unterschiedlichen Kameras vergleichbare Ergebnisse ermitteln kann. Das wirkt auf mich irgendwie so, als ob alles was mit RAW zu tun hat nur "künstlerisch" interpretierbar ist.
ZITAT(mts @ 2010-11-16, 13:01) ZITAT(Neonsquare @ 2010-11-15, 10:26) Sogar ein JPEG ist eigentlich "viele Bilder". Viele JPEGs werden fürs Web ohne Farbprofil abgelegt - dann ist die exakte Dekodierung eigentlich Interpretationssache.[/quote]Nein. Vereinbarungssache. Entweder vereinbare ich ein Farbprofil, oder - was die Regel ist - ich verstehe das Bild als sRGB. Wer so blöd ist und sein Farbprofil vergisst, ist selbst schuld.
[/quote]
Aha! Jetzt ist es plötzlich "Vereinbarungssache" aber bei RAW gibt es sowas natürlich nicht; sowas wie Farbprofile; ach verdammt! gibt es ja doch!
ZITAT(mts @ 2010-11-16, 13:01) ZITAT(Neonsquare @ 2010-11-15, 10:26) Du hattest behauptet sie entwickeln die RAWs mit ihrer Endkunden-RAW-Konverter-Software[/quote]Nein, das hatte ich nie behauptet.
[/quote]
Wie hast Du es denn dann gemeint? Du schreibst:
"Wir vergleichen hier aber auch nur, wie DXO die Raw-Dateien aus verschiedenen Kameras interpretiert. Das ist legitim. Genauso legitim, wie ich für einen Vergleich Aperture nehmen könnte. Oder Capture One. Oder Lightroom."
Also vergleichst Du das was "DXO" macht mit dem was man mit den Programmen Aperture, Capture One oder Lightroom machen könnte. Das sind alles Endkunden-RAW-Konverter wenn DXO also einen "RAW-Konverter" nutzt wieso sollten sie einen anderen nehmen als jenen, den sie an Endkunden verkaufen? Wie ist das anders zu verstehen als ich das gedeutet habe?
Nichtsdestotrotz: Imatest ermöglicht ebenfalls die Analyse von RAW-Dateien, wobei sie eine Version von dcraw benutzen um möglichst unkorrigierte Ergebnisse aus den RAW-Daten zu ermitteln. Das ist die bereits von Wüller in der ColorFoto genutzte Methode in ein Produkt verpackt. Imatest kann auch RAW-Files mit einem generischen Modul lesen - was für Spezialformate in der Forschung interessant ist. Der Knackpunkt liegt da aber auch wieder nicht bei der "Interpretation" der RAW-Daten, sondern bei der Zuordnung der Daten - also eben welche Pixel in der Datei z. B. für Rot, Grün oder Blau stehen.
ZITAT(mts @ 2010-11-16, 13:01) ZITAT(Neonsquare @ 2010-11-15, 10:26) Die Frage ist nämlich nicht "wie" DxO die RAWs entwickelt sondern "ob" - und die Antwort habe ich zuerst stark vermutet und mittlerweile belegt: Sie entwickeln die RAWs nicht vor der Analyse.[/quote]Sie können die Bilder nicht analysieren, ohne die Bilder zu entwickeln bzw. zu konvertieren. Offenbar verstehen wir zwei unter dem Begriff etwas anderes.
[/quote]
Der Unterschied ist schlicht, dass es um eine Signalanalyse geht und nicht darum die Qualität eines konvertierten Bildes zu bestimmen. Bei Kennzahlen zum Rauschverhalten einer Kamera kann man natürlich begrenzt auch aus konvertierten (also interpolierten/verrechneten) Bildern Kennzahlen ermitteln - allerdings mit der Gefahr, dass eben bereits durch die Konvertierung das Ergebnis verfälscht wird. Ist es eine simple Interpolation ohne Korrekturen wie man sie mit dcraw machen kann, dann hält sich das noch in Grenzen - bei einer Konvertierung innerhalb der Kamera ist das Ergebnis jedoch massiv sämtlichen Tricks der Hersteller ausgesetzt. Auch vor der Konvertierung lassen sich die Pixel eines RAW-Bildes einzelnen Farbkanälen zuordnen. Das Signal wird im Labor kontrolliert eingebracht. Bei Testcharts für Auflösung und Rauschen hat man es oft nur mit Grauwerten zu tun, die letztlich alle Farbkanäle ähnlich stark füllen. Willst Du immer noch behaupten, dass man anhand dieser Daten keine Kennzahlen bestimmen kann? Man erst die Pixel miteinander verrechnen muss? Interessant ist in diesem Fall beispielsweise das Bestimmen der statistischen Korrelation eines RAW-Pixels zu seiner Umgebung. Stellt man hier eine messbare Korrelation fest, dann verrechnet der Kamerahersteller bereits im RAW diese Pixel. Das ist insbesondere dann auffällig, wenn diese Korrelation auf einen Farbkanal begrenzt ist, also z. B. nur bei den grünen Pixeln vorkommt, wie das bei der A700 festgestellt wurde. Derartige Korrekturen an RAW-Daten sind eigentlich verpönt, weil so eine möglicherweise bessere Korrektur im Postprocessing behindert oder gar verhindert werden kann. Schon alleine deshalb halten sich die Hersteller normalerweise entsprechend zurück. Auf der anderen Seite ist das RAW die einzige Chance der Hersteller, Softwarekorrekturen unter voller eigener Kontrolle einzubringen (Schwächen der Hardware ausgleichen).
Beiträge: | 358 |
Registriert am: | 05.03.2010 |
ZITAT(Neonsquare @ 2010-11-16, 14:48) Mit deiner Behauptung möchtest Du jedoch offenbar leugnen, dass man mit unterschiedlichen Kameras vergleichbare Ergebnisse ermitteln kann.[/quote]Lege mir doch bitte nichts in den Mund, was ich nicht gesagt habe. Sei bitte etwas vorsichtiger, bevor du mir eine "sehr krude Vorstellung von RAW" unterstellst.
ZITAT(Neonsquare @ 2010-11-16, 14:48) Jetzt ist es plötzlich "Vereinbarungssache" aber bei RAW gibt es sowas natürlich nicht; sowas wie Farbprofile; ach verdammt! gibt es ja doch![/quote]Nein. Solange das Format nicht standadisiert ist, nicht. Anders formuliert: Du kennst die Vereinbarung nicht. Der Hersteller sollte wissen, wie sein Sensor auf welches Licht reagiert, du versuchst es herauszufinden. (Das war gemeint, als ich schrieb: "Nur der Hersteller weiß, wie er das Dateiformat übersetzt haben will."
Wie ein JPEG aussieht, ist klar. Beim Raw ist es das nicht.
ZITAT(Neonsquare @ 2010-11-16, 14:48) Es ist bei allen das gleiche Prinzip.[/quote]Das Prinzip allein nützt mir nur nichts. Erst wenn ich alle Raw-Files mit den gleichen Parametern anfassen dürfte, hätte ich was davon. Die Raws sind ja eben nicht normiert. Du selbst bringst ja ins Spiel, dass man die Daten anhand von Profilen anpassen sollte.
ZITAT(Neonsquare @ 2010-11-16, 14:48) ZITAT(mts @ 2010-11-16, 13:01) ZITAT(Neonsquare @ 2010-11-15, 10:26) Du hattest behauptet sie entwickeln die RAWs mit ihrer Endkunden-RAW-Konverter-Software[/quote]Nein, das hatte ich nie behauptet.
[/quote]Wie hast Du es denn dann gemeint? Du schreibst:
"Wir vergleichen hier aber auch nur, wie DXO die Raw-Dateien aus verschiedenen Kameras interpretiert. Das ist legitim. Genauso legitim, wie ich für einen Vergleich Aperture nehmen könnte. Oder Capture One. Oder Lightroom."
Also vergleichst Du das was "DXO" macht mit dem was man mit den Programmen Aperture, Capture One oder Lightroom machen könnte. Das sind alles Endkunden-RAW-Konverter wenn DXO also einen "RAW-Konverter" nutzt wieso sollten sie einen anderen nehmen als jenen, den sie an Endkunden verkaufen? Wie ist das anders zu verstehen als ich das gedeutet habe?[/quote]So wie ich es geschrieben habe. Es gibt Programme/Algorithmen/Verfahren, um Raw-Files zu übersetzen. Das Original sind nur die digitalisierten Ladungsinformationen. Ohne jegliche Farbwerte.
ZITAT(Neonsquare @ 2010-11-16, 14:48) Nichtsdestotrotz: Imatest ermöglicht ebenfalls die Analyse von RAW-Dateien, wobei sie eine Version von dcraw benutzen um möglichst unkorrigierte Ergebnisse aus den RAW-Daten zu ermitteln.[/quote]Siehst du? Sie nehmen DCRaw. Andere konvertieren halt anders. ZITAT(Neonsquare @ 2010-11-16, 14:48) Der Knackpunkt liegt da aber auch wieder nicht bei der "Interpretation" der RAW-Daten, sondern bei der Zuordnung der Daten - also eben welche Pixel in der Datei z. B. für Rot, Grün oder Blau stehen.[/quote]Die Zuordnung ist ja nur ein Aspekt. Welches Grün, Rot und Blau hättest du denn gern? Als welchen Farbwert fassen wir die einzelnen Sensel denn auf? Welche Zahl übersetzen wir in welche Helligkeit welchen Farbwerts?
ZITAT(Neonsquare @ 2010-11-16, 14:48) ZITAT(mts @ 2010-11-16, 13:01) ZITAT(Neonsquare @ 2010-11-15, 10:26) Die Frage ist nämlich nicht "wie" DxO die RAWs entwickelt sondern "ob" - und die Antwort habe ich zuerst stark vermutet und mittlerweile belegt: Sie entwickeln die RAWs nicht vor der Analyse.[/quote]Sie können die Bilder nicht analysieren, ohne die Bilder zu entwickeln bzw. zu konvertieren. Offenbar verstehen wir zwei unter dem Begriff etwas anderes. [/quote]Der Unterschied ist schlicht, dass es um eine Signalanalyse geht und nicht darum die Qualität eines konvertierten Bildes zu bestimmen. Bei Kennzahlen zum Rauschverhalten einer Kamera kann man natürlich begrenzt auch aus konvertierten (also interpolierten/verrechneten) Bildern Kennzahlen ermitteln - allerdings mit der Gefahr, dass eben bereits durch die Konvertierung das Ergebnis verfälscht wird. Ist es eine simple Interpolation ohne Korrekturen wie man sie mit dcraw machen kann, dann hält sich das noch in Grenzen - bei einer Konvertierung innerhalb der Kamera ist das Ergebnis jedoch massiv sämtlichen Tricks der Hersteller ausgesetzt. Auch vor der Konvertierung lassen sich die Pixel eines RAW-Bildes einzelnen Farbkanälen zuordnen. Das Signal wird im Labor kontrolliert eingebracht. Bei Testcharts für Auflösung und Rauschen hat man es oft nur mit Grauwerten zu tun, die letztlich alle Farbkanäle ähnlich stark füllen.[/quote]Wenn ich verschiedene Messwerte, die DXO-Mark veröffentlicht, richtig interpretiere, füllen die Grauwerte die Farbkanäle verschiedener Kameras keinesfalls grundsätzlich ähnlich stark. Was tun, wenn der Rotkanal auch grün aufzeichnet? Wir interpretieren, welcher Kanal für welchen exakten Farbwert zuständig ist?
Wenn du nun jedes Sensel gleich interpretierst und die gleiche Zahl auf den gleichen Grauwert umsetzt, um so deine Auflösungsmessung durchzuführen, dann ist das dein ganz persönlicher Raw-Konverter, der dies halt so macht.
Warum machen die bei DXO-Mark keine Auflösungsmessungen?
Beiträge: | 3.087 |
Registriert am: | 05.02.2003 |
@mts
Ein Sensorpixel hinter einem grünen Farbfilter ist ein grüner Pixel - per Definition - da kommt nicht plötzlich was rotes dabei raus. Ebenso bei Pixeln hinter roten oder blauen Farbfiltern. Aus der Menge dieser roten, grünen und blauen Pixel ergeben sich die Farbkanäle des Bildes. Wie Du da ein "Interpretationsproblem" sehen kannst leuchtet mir nicht ein. Ebenso leuchtet mir nicht ein, wieso der Rotkanal plötzlich Grün aufzeichnen soll. Abschließend will mir nicht einleuchten, wieso irgendwie jedes Programm, welches RAW-Daten analysiert gleich ein "RAW-Konverter" sein muss und welchen Nutzen eine derart undifferenzierte Kategorisierung haben soll.
Es tut mir wirklich Leid - ist nicht böse gemeint - aber ich glaube es macht wenig Sinn an dieser Stelle die Diskussion weiterzuführen. Vermutlich habe ich einfach keinerlei Ahnung von dem Ganzen und RAW ist sowieso niemals irgendwie sinnvoll vergleichbar oder Du bist erstaunlich beratungsresistent; das darf sich gerne jeder selbst so zurechtlegen wie er möchte.
Schönen Abend,
Jochen
Beiträge: | 358 |
Registriert am: | 05.03.2010 |
ZITAT(Neonsquare @ 2010-11-16, 19:22) Es tut mir wirklich Leid - ist nicht böse gemeint - aber ich glaube es macht wenig Sinn an dieser Stelle die Diskussion weiterzuführen.[/quote]Wenn du dir nicht die Mühe machen willst, mal auf eine Nachfrage einzugehen, möglicherweise nicht. Ich habe mehrfach nachgefragt und lasse mich gern überzeugen. ZITAT(Neonsquare @ 2010-11-16, 19:22) Vermutlich habe ich einfach keinerlei Ahnung von dem Ganzen und RAW ist sowieso niemals irgendwie sinnvoll vergleichbar oder Du bist erstaunlich beratungsresistent; das darf sich gerne jeder selbst so zurechtlegen wie er möchte.[/quote]Ich habe nie behauptet, Raws seien nicht vergleichbar.
Wenn du dieses Niveau willst, bringt die Diksussion hier in aller Öffentlichkeit tatsächlich nichts.
Ich gehe aber nochmal auf deinen letzten Beitrag ein:
ZITAT(Neonsquare @ 2010-11-16, 19:22) Ein Sensorpixel hinter einem grünen Farbfilter ist ein grüner Pixel - per Definition - da kommt nicht plötzlich was rotes dabei raus. Ebenso bei Pixeln hinter roten oder blauen Farbfiltern. Aus der Menge dieser roten, grünen und blauen Pixel ergeben sich die Farbkanäle des Bildes. Wie Du da ein "Interpretationsproblem" sehen kannst leuchtet mir nicht ein.[/quote]Dann definiere mir doch mal bitte rot, grün und blau. Und garantiere, dass der Hersteller sich an deine Definition hält.
Dass die Filter unterschiedlich ausfallen, wurde ja schon geschrieben.
Wir können uns ja mal den Spaß erlauben und uns den Foveon-Sensor anschauen. Unterschiedliche Wellenlängen dringen unterschiedlich tief ins Silizium ein. Übereinander - vielmehr ineinander - liegen drei Fotozellen, s. zum Beispiel http://thumbs.imagekind.com/member/4af91...110a8584b2f.jpg (Quelle: http://forum.mflenses.com/feelings-about-t...525.html#195483). Die oberste Schicht ist fürs Blau zuständig, die Mittlere fürs Grün und die unterste fürs Rot. Soweit zumindest das Werbeversprechen. Das Licht einer bestimmten Wellenlänge wandert nun aber nicht ungehindert bis zur "zuständigen" Schicht und stoppt dann abrupt. Wie auch? Auch die benachbarten Schichten zeichnen vielmehr noch einiges Licht der "falschen" Wellenlänge auf, das zumindest laut Sigma-Werbung da nicht hingehört. Das Ergebnis ist, dass auch ein Konverter wie DCRaw gehörig rechnen muss, um das Foveon-Raw in RGB-Pixel zu übersetzen. Nun könnten wir den Foveon-Sensor als Sonderfall beiseite lassen, der DXO-Mark veröffentlicht da ja anscheinend keine Werte zu. Es gibt aber noch andere Sonderfälle, Fujifilms S3Pro SR zum Beispiel. Den DXO-Mark untersucht. Aber auch bei "herkömmlichen" Sensorarchitekturen reicht es mir ja nicht, wenn ich "im Prinzip" weiß, wie mit den Raw-Daten umzugehen ist, denn auch da habe ich nicht die idealtypische Arbeitsteilung zwischen den einzelnen Senseln:
ZITAT(Neonsquare @ 2010-11-16, 19:22) Ebenso leuchtet mir nicht ein, wieso der Rotkanal plötzlich Grün aufzeichnen soll.[/quote]Frag die Hersteller! Möglicherweise, um die Empfindlichkeit zu erhöhen? Wie geschrieben, die Farbfilter vor den Senseln sind nicht normiert.
Schnappen wir uns doch mal eine beliebige Kamera wie die EOS 5D Mark II und schauen im DXO-Mark unter "Color Response" nach: http://www.dxomark.com/index.php/en/Camera.../EOS-5D-Mark-II. Verstehe ich was falsch, oder sollte der idealtypische Rotkanal nicht nur rotes Licht aufzeichnen, der Grünkanal nur grünes und der Blaukanal nur blaues? Warum ermitteln die im Rotkanal 0,5 R, 0,47 G und 0,03 B?
Was ist, wenn der Hersteller mit seinem Grünkanal gar kein Grün aufzeichnen will? Zumindest nicht das Grün, das du für Grün hälst? Warum gibt es so heftige Abweichungen im DXO-Mark?
ZITAT(Neonsquare @ 2010-11-16, 19:22) Abschließend will mir nicht einleuchten, wieso irgendwie jedes Programm, welches RAW-Daten analysiert gleich ein "RAW-Konverter" sein muss und welchen Nutzen eine derart undifferenzierte Kategorisierung haben soll.[/quote]Nenn es, wie du willst. Ausgangspunkt war, dass es schwerfallen wird, die "Qualität eines Raw" zu messen (unter dem Gesichtspunkt der Bildqualität der Kamera), ohne das Raw zunächst zu übersetzen, also zu interpretieren. Dass das Messergebnis also auch davon abhängt, ob und wie das Raw-Format verstanden und übersetzt wird.
U. Kulick schreibt zum Beispiel, dass etwas Software schon sein müsse, um das Raw "möglichst schonungslos" anzuzeigen. Dafür ist die Kenntnis und das Verständnis des Raw-Formats natürlich Voraussetzung - genauso wie für das Analyseprogramm, das die Raws in das DXO-Ranking übersetzt.
Beiträge: | 3.087 |
Registriert am: | 05.02.2003 |
Sagt das eine Grautier zum anderen: "Du Esel!"
"Das mit dem Leben habe ich nicht so drauf. Ich sehe lieber anderen dabei zu." (Frank Goosen, So viel Zeit)
Beiträge: | 11.247 |
Registriert am: | 03.11.2003 |
ZITAT(mts @ 2010-11-17, 1:00) Dann definiere mir doch mal bitte rot, grün und blau. Und garantiere, dass der Hersteller sich an deine Definition hält.[/quote]
Das sind Qualia - sie bedürfen keiner Definition. Bei einem Bayer-Sensor (und genau davon spreche ich die ganze Zeit! ist jedem Pixel durch seinen Farbfilter eine Rolle per Definition zugewiesen.
ZITAT(mts @ 2010-11-17, 1:00) Dass die Filter unterschiedlich ausfallen, wurde ja schon geschrieben.[/quote]
Ja natürlich - deshalb gibt es ja Weißabgleich und Kameraprofile. Deshalb ist "Rot" aber nicht plötzlich "Grün" - denn was zählt ist die Intention.
ZITAT(mts @ 2010-11-17, 1:00) Wir können uns ja mal den Spaß erlauben und uns den Foveon-Sensor anschauen...[/quote]
Ich habe nie von Fovevon-Sensoren gesprochen sondern stets von Bayer-Sensoren. Fovevon-Sensoren benötigen keine DeBayer-Interpolation um für einen Pixel die RGB-Werte zu bestimmen. Rein logisch gesehen landet man mit einer DeBayer-Interpolation etwa dort, wo man bei einem Fovevon-Sensor schon ist. Insofern könnte man die Ergebnisse zwischen Fovevon und Bayer vermutlich erst ab diesem Schritt sinnvoll vergleichen. Damit habe ich mich allerdings noch nicht beschäftigt. Solange wir uns anscheinend noch bei Bayer-Sensoren uneins sind, halte ich es auch für nicht sinnvoll das ganze auf andere Sensorarchitekturen zu erweitern.
ZITAT(mts @ 2010-11-17, 1:00) ZITAT(Neonsquare @ 2010-11-16, 19:22) Ebenso leuchtet mir nicht ein, wieso der Rotkanal plötzlich Grün aufzeichnen soll.[/quote]Frag die Hersteller! Möglicherweise, um die Empfindlichkeit zu erhöhen? Wie geschrieben, die Farbfilter vor den Senseln sind nicht normiert.
Schnappen wir uns doch mal eine beliebige Kamera wie die EOS 5D Mark II und schauen im DXO-Mark unter "Color Response" nach: http://www.dxomark.com/index.php/en/Camera.../EOS-5D-Mark-II. Verstehe ich was falsch, oder sollte der idealtypische Rotkanal nicht nur rotes Licht aufzeichnen, der Grünkanal nur grünes und der Blaukanal nur blaues? Warum ermitteln die im Rotkanal 0,5 R, 0,47 G und 0,03 B?
[/quote]
Das liegt in der Natur eines Farbfilterarrays und ist keine Eigenart dieser Kamera oder dieses Herstellers. Das heißt lediglich, dass der Rotfilter eines Rotpixels auch zu einem Anteil für Grün empfindlich ist (Es gibt keine perfekt trennenden Farbfilter). Deshalb bleibt dieser Pixel jedoch weiterhin ein definierter "Rotpixel" und wird nicht plötzlich als "Grünpixel" interpretiert. Genau deshalb ist auch ein Weißabbleich nötig, welchen Du beim DxOMark übrigens findest. DxO hat für den Sensor die auf der Seite genannten Werte ermittelt.
ZITAT(mts @ 2010-11-17, 1:00) Was ist, wenn der Hersteller mit seinem Grünkanal gar kein Grün aufzeichnen will? Zumindest nicht das Grün, das du für Grün hälst? Warum gibt es so heftige Abweichungen im DXO-Mark?[/quote]
Dann nenne mir bitte einen Hersteller, der in seinem Grünkanal kein Grün aufzeichnen will. Die Abweichungen im DxOMark sind oben begründet und - völlig unabhängig von Herstellerwünschen - teil des Prinzips. DxO konnte ja diese Abweichungen messen und daraus einen Weißabgleichsvektor berechnen. Dazu ist kein Hersteller-Voodoo nötig.
ZITAT(mts @ 2010-11-17, 1:00) U. Kulick schreibt zum Beispiel, dass etwas Software schon sein müsse, um das Raw "möglichst schonungslos" anzuzeigen. Dafür ist die Kenntnis und das Verständnis des Raw-Formats natürlich Voraussetzung - genauso wie für das Analyseprogramm, das die Raws in das DXO-Ranking übersetzt.[/quote]
Wenn ich Daten in einem Computer verarbeiten will, dann benötige ich etwas Software - das ist logisch und bezweifelt niemand. Dass es in den meisten Fällen** sinnvoll sein kann, über die Strukturen von Daten bescheid zu wissen ebenso. Ein RAW-Konverter für einen Bayer-Sensor ist jedoch deutlich spezifischer: In erster Linie geht es dabei darum das Bayer-Muster in ein RGB-Bild zu interpolieren, bei dem jeder Pixel alle drei Farbkomponenten enthält. Dieser Schritt ist essentiell für eine Visualisierung eines solchen Bildes aber nicht unbedingt für die Analyse der Daten.
Hier ist ein schöner Artikel über die Farbverarbeitung von Bayer-Mosaic-Sensoren:
http://www.matrix-vision.com/info/articles...ermosaic_de.pdf
Das Fazit des Artikels:
a) "Der zu verwendende Algorithmus ist abhängig vom Anwendungsfall. Mit viel Aufwand kann
man das Bild ‚schön-rechnen'."
b) "Wenn die Visualisierung des Kamerabildes zweitrangig ist, kann man auf die komplette
Umrechnung des Bildes verzichten und hat damit nur 1/3 der Datenmenge. Stattdessen kann
man lediglich die Auswertebereiche umrechnen oder die Bildverarbeitungsalgorithmen
können direkt mit einem Bayer-Mosaic-Bild umgehen."
Auswertung der Leistungs-Kennzahlen eines Sensors ist ein spezifischer Anwendungsfall. Man wird in diesem Fall aber wohl weniger Aufwand in ein "schön-rechnen" des Bildes stecken. Abschließend wiederhole ich nochmal den letzten Satz des Artikels: "Stattdessen kann man lediglich die Auswertebereiche umrechnen oder die Bildverarbeitungsalgorithmen
können direkt mit einem Bayer-Mosaic-Bild umgehen."
Mich würde an dieser Stelle auch interessieren, ob Du denn Programmiererfahrung - vielleicht gar in der Bildverarbeitung hast? Im Rahmen meines Informatikstudiums hatte ich nicht nur damit, sondern beispielsweise auch mit Informationstheorie, Signalverarbeitung und optischer Physik (Lichtwellenleiter, optische Prozessoren...) zu tun. Ich kenne den Quelltext von dcraw relativ gut (ist ziemlich verschlungen ) und habe deshalb eine recht gute Abschätzung dazu was dcraw macht oder nicht macht bzw. was man damit machen KANN.
Wofür das ganze? Nur damit wir nicht aus den Augen verlieren worum es geht: Es geht NICHT darum, dass man Bildqualitätstests von Kameras nur mit RAW-Daten machen sollte. Ein Test der "Out of Camera"-JPEGs als solches ist natürlich sinnvoll, weil es ein Produkt der Kamera ist, dass für viele Nutzer wichtig ist. Ein vergleichender Test, welche visuelle Qualität man mittels bestimmter RAW-Konverter erreichen kann ist meiner Meinung nach sinnvoll aber nicht zwingend notwendig. Um die Leistung einer Kamera jedoch realistisch messen zu können und um aufzudecken, welche Tricks die Hersteller noch vom RAW zum Kamera-JPEG anwenden, ist eine Analyse der RAW-Daten unerlässlich. Vor allem dann, wenn ein Test zu einem signifikanten Anteil aus Messungen im Labor besteht. Findet diese Analyse der RAW-Daten nicht statt und beschränkt sich stattdessen auf JPEG im Standardmodus, dann sollte das im Artikel auch prominent erwähnt werden - mit allen Konsequenzen.
**) von Kryptoanalyse und der Suche nach Signalen im All abgesehen
Beiträge: | 358 |
Registriert am: | 05.03.2010 |
QUOTE (Neonsquare @ 2010-11-17, 9:54) QUOTE (mts @ 2010-11-17, 1:00) Dann definiere mir doch mal bitte rot, grün und blau. Und garantiere, dass der Hersteller sich an deine Definition hält.[/quote]
Das sind Qualia - sie bedürfen keiner Definition. Bei einem Bayer-Sensor (und genau davon spreche ich die ganze Zeit! ist jedem Pixel durch seinen Farbfilter eine Rolle per Definition zugewiesen.[/quote]
Sorry, aber das ist ganz großer Unfug. Mache dich bitte mit Gerätefarbraum, insbesondere Primärvalenzen, Gamma und der Lage des Weisspunkts vertraut.
Beiträge: | 1.037 |
Registriert am: | 05.02.2006 |
QUOTE (Peanuts @ 2010-11-16, 4:20) QUOTE (u. kulick @ 2010-11-16, 0:20) zufällig heute gefunden: Link zu imatest, noch so einem Unternehmen der Test-Industrie - Liefert Digitalbildqualitätstest-Software[/quote]
Leider liefern sie das Know-how, wie man Tests ordentlich durchführt, nicht mit.
[/quote]
Die Homepage von imatest ist immerhin reich an Informationen. Die gehen auch darauf ein, wie man ein Testlabor billig oder teuer ausstatten kann. Die Software kann man zum Ausprobieren herunter laden. Womit die ihr Geld verdienen, sind die Testcharts, von denen jede mindestens 200$ kostet. Und die Softwarelizenz ist immer nur für ein Jahr. Aber anhand der der Homepage kann man sich für jede Messkategorie angucken, wie man's macht und was die Software dazu leistet.
Erkenntnis: FotoHits oder der Testlieferant der Zeitschrift benutzt imatest , die Charts sind teils im Heft en miniature abgedruckt, z.B aus den Software-Modulen Colorcheck und Stepchart
QUOTE (Peanuts @ 2010-11-16, 11:51) QUOTE (Neonsquare @ 2010-11-16, 11:10) Was haben sie denn falsch gemacht?[/quote]
Sie haben versucht, anhand von JPEGs die Vignettierung zu bestimmen. Das ist zumindest beim EF24/1.4L und beim EF35/1.4L gründlich in die Hose gegangen.
Deswegen ja auch der Hinweis auf dieser Seite. Und die Erkenntnis ist nicht auf eigenem Mist gewachsen, da musste man schon nachhelfen.
Völlig unverständlich ist auch, dass man ZF-Objektive per Adapter an EOS-Kameras getestet hat, statt z.B. an einer D3x. Da wäre der Fehler bei der Vignettierungsmessung nicht so drastisch ausgefallen.
[/quote]
Wenig verständlich ist was Du sagst, wenn Du dich nicht auf Sätze beziehst wie "We're performing our vignetting analysis based on (uncorrected) JPEGs straight from the camera. The JPG engine of the Nikon D3x features a rather flat gradation curve, thus has a moderate contrast characteristic, resulting in comparatively low vignetting figures - the corresponding Canon figures are roughly 40% higher due to the more aggressive default contrast setting."
Ergo: Man testet zwar "unkorrigierte", d.h. hoffentlich bezügl. Vignettierung unkorrigierte JPEGs, aber angeblich seien unterschiedliche Standard-Kontrast-Einstellungen von Nikon und Canon schuld an den unterschiedlichen Ergebnissen. Müsste man dann nicht für den JPEG-basierten Test die Kontrastverhältnisse normieren? Das ist vielleicht einfacher mit RAW-Konverter als mit "straight out of the camera JPEG". Außerdem: Wird die Lichtschrägeinfall-Lichtverlust-Kennlinie des Sensors berücksichtigt? Diese erhöht im Falle signifikanter Lichtverluste naturgemäß auch signifikant die Vignettierung. Diese Vignettierungserhöhung müsste theoretisch aus der Messung herausgerechnet werden, wenn es um einen reinen Objektivtest geht wie in diesem Falle. Oder man teste die Vignettierung der Objektive mit Film.
Ich zitiere den oben schonmal erwähnten FoMag-Artikel über den erweiterten BAS-Test
"Das ist neu an BAS Digital: Das neue Prüfverfahren setzt stärker auf den Einsatz von Film als der alte BAS-Test. Bei ihm dienten Testaufnahmen auf Diafilm lediglich dazu, Streulicht, Randabdunklung und Verzeichnung zu erfassen und softwarebasiert auszuwerten... Der Grund für den Wechsel zu Film bei BAS Digital ist schnell erklärt: Da beim Objektivtest an der Digitalkamera der Kamerasensor das Testbild liefert, anhand dessen das Objektiv beurteilt wird, muss aus Gründen der Chancengleichheit und Vergleichbarkeit der Daten im Analoggehäuse mit Film gearbeitet werden. Fortschritte in der Digitalisierungstechnik, aber auch bei den Filmemulsionen sorgen heute dafür, dass Aufnahmen auf Film sich bedenkenlos selbst für anspruchsvolle Auswertungen einsetzen lassen... Als analoge Referenzkameras dienen von den jeweiligen Herstellern selektierte Referenzkameras, die auf Minimaltoleranzen geprüft sind. Testfilm ist der feinkörnige Fujifilm Acros 100 mit konstanter Einmalentwicklung in der laboreigenen Entwicklungsmaschine, um die volle Prozesskontrolle und -konstanz zu haben..."
Idealerweise ist Vignettierung demnach mit Film zu messen. Den Testlaboren müssten die Hersteller "digital gerechneter" Objektive also getunte Analog-Kameras an die Hand geben, mit denen die Digital-Objektive auch auf Analog abbilden, zumindest für die klassischen AF-Bajonette ist das bestimmt möglich.
Zurück zu imatest, das mit Lightfall auch wieder eines seiner ausgefeilten Testprogrammmodulespeziell für Vignettierungsmessung anbietet, photozone benutzt aber offenbar stattdessen sfr.
Um also wider die BAS-Philosophie vernünftige Vignettierungstests ohne Film zu machen, brauchen wir den Umweg über RAW, um die Kontrolle zu haben, mit welchen Einstellungen das TIFF oder JPEG erzeugt wird, an dem dann die Vignettierung gemessen wird, d.h. vignettierungserhöhende Kontrast- oder sonstige Einstellungen müssen vermieden werden. Und wir müssen den Faktor kennen, um den bei der Aufnahme Schräglicht vom Sensor geschluckt wird und folglich die Vignettierung verstärkt, das müsste theoretisch anhand der Lichtschrägeinfall-Lichtverlust-Kennlinie aufwändig aus dem vignettierten Testbild herausgerechnet werden. Der Aufwand ist beim Kit-Objektivtest überflüssig, der im Rahmen eines Kameratests erfolgt. Bei Zubehör-Herstellern wie Tamron und Sigma reicht es aus, zwei Exemplare zu testen, einmal an einem Kamera-Modell, das für signifikante Vignettierungserhöhung bekannt ist, und an der Kamera, die diesbezüglich hingegen vorbildlich wenig Vignettierung verstärkt. Als Testergebnisse gebe man vign. min. und vign. max an. Bei anderen Objektiven kommt man an der Vignettierungsmessung mit Film nicht vorbei. Oder an der Ermittlung eines gemittelten sensorbedingten Vignettierungserhöhungsfaktor für die getestete Objektdistanz. Dann kann man bei Messung mit Film als Ergebnis angeben "hinzuzurechnen ist zur gemessenen Vignettierung der sensorbedingte Faktor x", und bei digitaler Messung entsprechend "herauszurechnen ist..."
Beiträge: | 3.273 |
Registriert am: | 30.05.2005 |
Hier nochmal zusammengefasst die Links zu bestimmten Testverfahren:
BAS-Test (Barnim A. Schultze-Test) für Objektive, Links Kurzfassung
DCTau (Digi-Cam-Taugtsewas-Test), Verfahren von Anders Uschold, Links Übersicht und White Paper und FoMag-Artikel und digitalkamera.de-Artikel
BAS Digital (FoMag Test) für Objektive, Links FoMag-Artikel
Weitere Quellen
Dietmar Wüller's "6-Megapixel sind genug"-Lehre, sein oben schon angelinkter Vortrag über Testnormen, wo grafische Darstellungen drin sind, die wir in modifizierter Form von der imatest-Software generiert bekommen, hier nochmal deren Software-Baustein-zu-Testkategorie-Zuordnungs-Liste, und ein begeisterter imatest-Kunde in Australien. Ebenso stimmen demnach Wüller und Firma imatest in der Vorstellung über Testeinrichtungen weitgehend überein, imatest ist aber unabhängiger bei der Ausstattungsberatung, da Wüller Lieferant von Testlaborausstattung ist, nur bei Software und Testcharts ist ein Hauen und Stechen zwischen beiden . Etwas schwieriger auf Englisch und außerdem von 2006 noch etwas überDigiCam-Evaluierung
P.S. in seinem Artikel"Analog vs. Digital" zitiert und dankt Uschold Wüller und outet sich als "Sachverständiger des Bundes" sowie Wüller als Anwärter auf diesen Titel
Beiträge: | 3.273 |
Registriert am: | 30.05.2005 |
ZITAT(Peanuts @ 2010-11-17, 13:38) ZITAT(Neonsquare @ 2010-11-17, 9:54) ZITAT(mts @ 2010-11-17, 1:00) Dann definiere mir doch mal bitte rot, grün und blau. Und garantiere, dass der Hersteller sich an deine Definition hält.[/quote]
Das sind Qualia - sie bedürfen keiner Definition. Bei einem Bayer-Sensor (und genau davon spreche ich die ganze Zeit! ist jedem Pixel durch seinen Farbfilter eine Rolle per Definition zugewiesen.[/quote]
Sorry, aber das ist ganz großer Unfug. Mache dich bitte mit Gerätefarbraum, insbesondere Primärvalenzen, Gamma und der Lage des Weisspunkts vertraut.
[/quote]
Würdest Du Dich bitte einmal mit dem Begriff Qualia in Zusammenhang mit Farben vertraut machen? Das ist allerdings zugegebenermaßen für diese Diskussion ziemlich wenig relevant.
Im übrigen: Bevor Du mir Unkenntnis dieser Begriffe vorwirfst solltest Du vielleicht noch einmal darüber nachdenken um welche Frage es an dieser Stelle ging: Die einzelnen Sensel eines Bayer-Sensors erfüllen per Definition die Rolle eines Messfelds für Rot, Grün oder Blau - je nachdem welcher Farbfilter eben vor dem Sensel ist - da gibt es keine Unwägbarkeiten bei der Zuordnung. Das hat auch überhaupt nichts mit dem Gerätefarbraum oder dem Weißpunkt zu tun. "Rot", "Grün" und "Blau" sind hierbei als Kategorien anzusehen wie "Die Menge der Rottöne".
Natürlich kann ein Sensor aufgrund seiner detaillierten Konstruktion bestimmte Farbtöne besser oder schlechter differenzieren - doch auch diese messbaren Unterschiede sind bezüglich einer Analyse der RAW-Daten interessant.
Beiträge: | 358 |
Registriert am: | 05.03.2010 |
Einfach ein eigenes Forum erstellen |