Die üblichen Farbsensoren haben eine Art buntes Schachbrett vor dem Chip, das Color Array Filter oder Bayer-Filter oder Farbmosaik-Filter. Da eine Fotodiode Farbenblind ist, wird mit diesen kleinen Farbfiltern pro Einzelsensor nur eine Lichtfarbe durchgelassen. Um dann später aus dem Haufen grüner, blauer und roter Punkte dreifarbige Pixel zu erhalten, muß Interpoliert werden. Dabei werden nach bestimmten Verfahren die Pixel der Nachbarschaft miteinander verrechnet. Dadurch entsteht natürlich eine gewisse Unschärfe, die ja bekannt ist bei digitalen Kameras (besonders bei DSLRs, da bei diesen nicht grundsätzlich geschärft wird, wie bei den Kompakt-Digis). Werden jetzt besonders feine Strukturen abgebildet, die etwa so breit sind wie die Einzelsensoren, zB ein Haar, dann wird das nur von einer "Reihe" Fotodioden wahrgenommen, und je nach Farbe entsprechend gefärbt. Da die Nachbarzellen aber gar nichts registrieren, kommt es zu Fehlinterpretationen der Interpolationsalgorithmen, und so mit zu Artefakten, auch Moiree genannt. Eine einzelne schwarze Linie schillert dann in bunten Farben. Um das zu vermeiden wird ein sogenanntes Anti-Aliasing-Filter vorgeschaltet, ein genau berechnetes dünnes Plättchen aus einem doppelbrechenden Material, das dann solche Strukturen ab einer bestimmten Frequenz entfernt, also so eine Art Weichzeichner. Dadurch wird das Bild zwar unschärfer, aber auch moireefrei.
Beim Foveon-Chip liegen die einzelnen Farbrezeptoren nicht schachbrettartig nebeneinander, sondern schüsselartig ineinander: Die "blaue" Fotodiode liegt in der "grünen", und diese wiederum in der "roten". Das hat natülich zur Folge, daß die blaue Zelle viel kleiner ist, als die rote, und daß natürlich die rote alle Farben "einsammelt", und nicht nur rot. Das hat jetzt wiederum zwei Folgen:
- zum einen ist es dann doch wieder mit Rechenarbeit verbunden, die einzelnen Kanäle sauber zu trennen (wobei "sauber" nach Dave Coffin ziemlich schwierig ist), dh es muß doch wieder interpoliert werden, und
- zum anderen, daß die unterschiedlichen Zellen auf Grund ihrer Größe doch wieder unterschiedlich "sehen", was dann wieder einen AA-Filter notwendig machen würde.
Der Füllfaktor (auch Apertur) beschreibt die zur Lichtrezeption benutzte Fläche im Vergleich zur Gesamtfläche der Fotodiode.
Das Konzept, wie es so schön in den ganzen Marketing-Bildchen veröffentlicht ist, ist genial. Die Umsetzung im Chip hat damit nicht viel zu tun, und ist eigentlich eine Krücke. Wenn man dann aber wiederum sieht, was für tolle Bilder dieser Chip hinbekommt, dann ist allerdings ziemlich erstaunlich (für mich wenigstens).