ZITAt (Anjax @ 2006-12-20, 15:42) Ein Bildpixel setzt sich aus mehren Sensorpixeln (Grün, Blau, Rot) zusammen. - Lichtverlust, da einzelner Sensorpixel nur einer Farbe zur Verfügung steht.[/quote]
Einen Lichtverlust gibt es hier nicht, weil die fehlenden Farbinfos aus den umgebenden Sensorpunkten interpoliert werden.
ZITAt (Anjax @ 2006-12-20, 15:42) - Strahlengang wird in 3 Teile zerteilt (Prisma) und zu den 3 Einzelfarbsensoren geleitet. - kein Auflösungsverlust[/quote]
Du hast nur dann keinen Auflösungsverlust, wenn der Strahlenteiler optisch perfekt ist und der Teiler und die drei Sensoren pixelgenau aufeinander justiert sind. In der Praxis hast du also sehr wohl einen Aufloesungsverlust.
ZITAt (Michael H @ 2006-12-20, 15:56) ZITAt (Anjax @ 2006-12-20, 15:42) Ein Bildpixel setzt sich aus mehren Sensorpixeln (Grün, Blau, Rot) zusammen. - Lichtverlust, da einzelner Sensorpixel nur einer Farbe zur Verfügung steht.[/quote] Einen Lichtverlust gibt es hier nicht, weil die fehlenden Farbinfos aus den umgebenden Sensorpunkten interpoliert werden. [/quote]
Was macht das blau gefilterte Sensorpixel mit dem roten und grünen Lichtanteil? Es filtert Ihn weg oder?
Aber stimmt, das weggefilterte Licht wird softwaremäßig wieder dazugerechnet. /good.gif" style="vertical-align:middle" emoid="" border="0" alt="good.gif" />
ZITAt (Anjax @ 2006-12-20, 16:11) ZITAt (Michael H @ 2006-12-20, 15:56) ZITAt (Anjax @ 2006-12-20, 15:42) Ein Bildpixel setzt sich aus mehren Sensorpixeln (Grün, Blau, Rot) zusammen. - Lichtverlust, da einzelner Sensorpixel nur einer Farbe zur Verfügung steht.[/quote] Einen Lichtverlust gibt es hier nicht, weil die fehlenden Farbinfos aus den umgebenden Sensorpunkten interpoliert werden. [/quote]
Was macht das blau gefilterte Sensorpixel mit dem roten und grünen Lichtanteil? Es filtert Ihn weg oder? [/quote] Ja, genauso wie beim Farbfilter, wenn du einen Strahlenteiler verwendest. Oder wolltest du einen Strahlenteiler ohne Farbfilter verwenden? Der Lichtverlust durch die Farbfilter ist bei beiden Systemen gleich.
ZITAt (Michael H @ 2006-12-20, 16:17) ZITAt (Anjax @ 2006-12-20, 16:11) ZITAt (Michael H @ 2006-12-20, 15:56) ZITAt (Anjax @ 2006-12-20, 15:42) Ein Bildpixel setzt sich aus mehren Sensorpixeln (Grün, Blau, Rot) zusammen. - Lichtverlust, da einzelner Sensorpixel nur einer Farbe zur Verfügung steht.[/quote] Einen Lichtverlust gibt es hier nicht, weil die fehlenden Farbinfos aus den umgebenden Sensorpunkten interpoliert werden. [/quote]
Was macht das blau gefilterte Sensorpixel mit dem roten und grünen Lichtanteil? Es filtert Ihn weg oder? [/quote] Ja, genauso wie beim Farbfilter, wenn du einen Strahlenteiler verwendest. Oder wolltest du einen Strahlenteiler ohne Farbfilter verwenden? Der Lichtverlust durch die Farbfilter ist bei beiden Systemen gleich. [/quote] Hatte ich beachtet und deshalb den Lichtverlust in etwa gleich beurteilt, aber den berechneten "Lichtgewinn" in Bezug auf die Nachbarsensoren beim 1-Sensorsystem vernachlässigt! /rolleyes.gif" style="vertical-align:middle" emoid="" border="0" alt="rolleyes.gif" /> Danke! Was den 3CCD dennoch bleibt ist die nahezu 100% Farbtreue, gegenüber der interpolierten Farbinformation des 1CCD. /cool.gif" style="vertical-align:middle" emoid="" border="0" alt="cool.gif" />
Anjax will den Strahl schon bei der Teilung in sein Farbspektrum zerlegen, idealerweise verlustfrei, und diese dann den Einzelsensoren zukommen lassen. Halte ich aber auch für zu aufwendig. Da sehe ich mehr Möglichkeiten in der Foveon-Technolohie. Auch wenn sie in Wirklichkeit nicht so arbeitet: Das theoretische Prinzip, wie beim Film, die Farben in unterschiedlichen Tiefen zu detektieren und so quasi keinen Lichtverlust zu haben, da nichts ungenutzt gefiltert wird, halte ich schon für ideal: Die Justage gegenüber dem 3-CCD-Prinzip ist vernachlässigbar. Solche Sensoren sind dann theoretisch wesentlich Lichtempfindlicher und haben wohl auch einen größeren Dynamikbereicht.
Edit: Ups, hatte da beim Strahlteiler was anderes verstanden oder zu sehr idealisiert.
Wenn man schon nicht interpolieren will, dann ist ein Foveon-Sensor deutlich besser als ein 3-Chip-System mit Strahlenteiler. Da fängt man sich keine klobige Zusatzoptik und Justageprobleme ein. Dann ist man aber wieder bei der alten Diskussion Foveon vs. Bayer. Beide haben ihre Vor- und Nachteile. Offenbar überwiegen für die Industrie derzeit die Vorteile der Bayer-Sensoren.
Um die Dynamik zu steigern, gibt's dann ja noch die Sensoren von Fuji, bei denen die Sensorpunkte zweigeteilt sind. Da gibt's neben den Vorteilen aber auch wieder Nachteile. Es gibt eben auch in der Technik nix kostenlos.
Fuji und Foveon zeigen aber, dass es noch Ideen gibt. Vielleicht gibt es igendwann den X3-CMOS mit 16M großen und 16M kleinen Pixeln. Durch geschicktes Design und geniale Mikrolinsen werden 95% des Lichtes genutzt. Die Unterscheidung der Lichtausbeute ist im Promillebereich möglich, und das bis in die Größenordnung einzelner Photonen. Die Dynamik umfasst dadurch theoretische 16 Blendenstufen. Bei der Umwandlung wird das Bild allerdings analysiert und es können dann nur optimierte 16 bit / Kanal abgespeichert werden.
Gerade gelesen: Die Firma pixim hat genau so einen Sensor entwickelt ("Every Pixel is a Camera", nach dem der OP gefragt hatte. Hier gibt es einen kleinen (deutschsprachigen) Artikel zu diesem Thema. Die Sensoren sind zwar (noch) für den Bereich der Überwachungstechnik gedacht, aber wer weiss ...
Was wäre eigentlich, wenn man die Technik bzw. Pixeldichte heutiger digitaler Kompaktkameras auf die Größe der Spiegelreflexsensoren bzw auf das Kleinbildformat übertragen würde? Am besten z.B. die Fuji F11, die für die gute Bildqualität bekannt ist. Theoretisch hätte man dann etwas um die 40MP. Aber das soll ja nicht das Ziel sein. Vielmehr dachte ich daran, aus diesen 40MP durch geschickte Interpolation 10MP zu erzeugen mit dem Ziel, dass sich das Rauschen der einzelnen Pixel aufhebt und die Farbinterpolation dann wesentlich verlustärmer ausfällt.
ZITAt (thomasD @ 2006-12-23, 0:38) Was wäre eigentlich, wenn man die Technik bzw. Pixeldichte heutiger digitaler Kompaktkameras auf die Größe der Spiegelreflexsensoren bzw auf das Kleinbildformat übertragen würde? Am besten z.B. die Fuji F11, die für die gute Bildqualität bekannt ist.[/quote] Das frage ich mich auch schon seit mindestens einem Jahr. Irgendwo sitzt bei Fujifilm jemand Falsches am Hebel. Es kann doch wohl nicht wahr sein, dass hier von Leuten, die jahrzehntelang Filme optimiert haben nun mit diesem geballten Know-How die besten CCDs der Welt konzipiert werden samt zugehörigen Algorithmen - und dass diese dann ein kümmerliches Dasein in ein paar wenigen Kompaktkameras mit unausgereifter Bedienoberfläche fristen müssen. Warum macht Fujifilm mit den Sensoren nicht endlich das, was sie mit Film auch machen: Diese zum Einsatz in Kameras anderer Hersteller anbieten. Es kann ja wohl kaum sein, dass niemand sie haben will. Stellen wir uns nur mal vor, Nikon würde einen Fuji SuperCCD HR Sensor, vielleicht mit etwas über 15 MP, in einer DSLR einsetzen - da würden bei den anderen Herstellern ruckzuck die Kinnladen runterfallen und sie würden auf ihrer Ware sitzenbleiben. Na schau'n mer mal. Wenn das passiert, rechne ich damit, dass einige Leute zu diesem System wechseln werden. Die halbgaren Versuche von Fuji selbst, "eigene" DSLRs damit zu vermarkten, sind dagegen nicht überzeugend, auch wenn es wahrscheinlich keine anderen 6 MP-Kameras mit besserer Bildqualität gibt.
ZITAt (thomasD @ 2006-12-23, 0:38) Was wäre eigentlich, wenn man die Technik bzw. Pixeldichte heutiger digitaler Kompaktkameras auf die Größe der Spiegelreflexsensoren bzw auf das Kleinbildformat übertragen würde? Am besten z.B. die Fuji F11, die für die gute Bildqualität bekannt ist. Theoretisch hätte man dann etwas um die 40MP. Aber das soll ja nicht das Ziel sein. Vielmehr dachte ich daran, aus diesen 40MP durch geschickte Interpolation 10MP zu erzeugen mit dem Ziel, dass sich das Rauschen der einzelnen Pixel aufhebt und die Farbinterpolation dann wesentlich verlustärmer ausfällt.[/quote] Das wäre ein technisches Nullsummenspiel. Anstatt mehrere kleine Sensorpunkte zu interpolieren, kann man gleich einen größeren Sensorpunkt verwenden. Auch dieser hat ein niedrigeres Rauschen aufzuweisen, und man bekommt es ohne zusätzlichen Rechenaufwand.
ZITAt (Michael H @ 2006-12-23, 8:30) Das wäre ein technisches Nullsummenspiel. Anstatt mehrere kleine Sensorpunkte zu interpolieren, kann man gleich einen größeren Sensorpunkt verwenden. Auch dieser hat ein niedrigeres Rauschen aufzuweisen, und man bekommt es ohne zusätzlichen Rechenaufwand.[/quote] Naja, einen Vorteil hättes es. Man hätte echte 10mpix und nicht Bayerinterpolierte (fast schon wie bei einem Foveon X3)
Eben, neben der genannten Rauschunterdrückung hatte ich ja auch die Farbinterpolation ins Spiel gebracht. Ich könnte mir aber auch vorstellen, dass durch geschickte Interpolation auch das Rauschen besser unterdrückt werden kann. Unterm Strich sehe ich dabei eher Vorteile. Allerdings ist der Rechenaufwand deutlich größer, aber das ist sicher machbar.