ZITAt (Michael H @ 2007-01-30, 7:22) Den prinzipiellen Unterschied/Vorteil gegenüber Foveon sehe ich jetzt nicht.[/quote]
Na gut, ich versuche es nochmal in ganz einfachen Worten:
Das Prinzip ist, das physikalische Phänomen auszunutzen, dass die Eindringtiefe der Photonen in Silicium abhängig von ihrer Wellenlänge (oder ihrer Energie) ist.
Eine Umsetzung dieses Prinzips ist, dass man drei Sensoren schüsselförmig ineinander stapelt. Diesen Weg ging Foveon. In einer großen Schüssel, die den R-Pixel darstellt, sitzt eine kleinere Schüssel (G-Pixel), und darin wiederum eine noch kleinere Schüssel für den B-Pixel. Diese Anordnung entspricht nicht den hübschen Bildchen der Foveon-Prospekte, wo drei sauber getrennte Schichten übereinander liegen. Und diese Anordnung schafft auch einige Probleme, zB das der sehr schlechten Kanaltrennung und des winzigen B-Pixels. Laut Dave Coffin ist es relativ schwierig, aus den Raw-Daten saubere getrennte Kanäle zu erhalten, die nach was aussehen. Also ein krasses Kontrastprogramm zu den Marketing-Bildchen, die ja implizieren, dass man bereits sauber getrennte Signale direkt ab Sensor bekommt, die dann gar nicht mehr bearbeitet werden müssen. Wiederum lt. Dave Coffin ist ein erheblicher Interpolationsaufwand notwendig - ganz im Gegensatz zur landläufigen Meinung, dass beim Foveon-Sensor gar nicht interpoliert werden müsse.
Wie auch immer, ich habe ja keine Umsetzung vorgeschlagen (was ich logischerweise auch nicht kann), sondern mich mehr auf das Prinzip zurückgezogen. Ich wage zu hoffen, dass es eines Tages eine Technologie gibt, die das Prinzip effizienter umsetzen kann, als es die Umsetzung von Foveon tut. Oder vielleicht werden Sensoren mal aus einer anderen Substanz hergestellt, die in einem zweidimensionalen Sensor direkt den Energieinhalt eines Photons ermitteln kann, und das vielleicht noch mit einem besseren Wirkungsgrad, als mit den momentanen 20-25% der kommerziellen Sensoren.
ZITATDu hast immer noch 3 Sensorpunkte auszulesen und zu verarbeiten[/quote]Nein, mir schwebt da eher eine direkte Auslesung der Wellenlänge mit anschließender Mittelung vor. Ebenso, wie man einen Lichtstrahl auch per Prisma zerlegen könnte, und später an Hand des erhaltenen Spektrums die ursprüngliche Farbe rekonstruieren kann.
ZITATund die besondere Tiefe der Löcher sorgt fuer die besonders hohe Vignettierung bei schräger Bestrahlung[/quote]
Bei jetzigen Sensoren ja. Aber zB gibt es keine derartigen Verluste in einer Glasfaser, wo das Licht auf Grund der Totalreflexion nicht "abhaut".
ZITATUnd das ist auch nicht das, was Rhamsis wollte.[/quote]Ich glaube, da hast du ihn nicht richtig verstanden. Du bist da zu starr im RGB-Denken verankert. RGB ist ja nur eine Notlösung, um ein bestehendes System überhaupt nutzen zu können, was ja auch ziemlich gut klappt. Jürgen spricht aber von einer ganz anderen Lösung:ZITAt (Rhamsis @ 2007-01-28, 17:57) Genial wäre ein Sensor, dessen Sensorelemente nicht rot- ODER grün- ODER blauempfindlich sind, sondern Farbeton, Sättigung und Helligkeit des einzelnen Bildpunktes erkennen können.[/quote]