Es gibt auch einige Dinge, welche gegen Vollformatsensoren sprechen:
1. Der berühmt-berüchtigte Auftreffwinkel des Lichts auf den CCD-Sensor. Dem Film ist's egal, aus welchem Winkel das Licht kommt (solange die Lichtempfindliche Schicht nicht zu dick und das Licht nicht zu spitz kommt). Der Sensor mag von der Konstruktion nur Licht aus 90°.
Die Helligkeit sinkt, wohl im Verhältnis sin^2(a). Das kann man sich so vorstellen, dass man ein Feld hat, welches mit hohen Mauern unterteilt ist. Nur die Lichtmenge, welche den Boden berührt, wird gemessen. Bei der Sonne (unendlich weit weg) ist die Lichtmenge (bei ebenem Boden) in allen Zellen im selben Verhältnis weniger, wenn sie nicht im Zenit steht. Bei einer näheren Quelle haben dann die Zellen am Rand viel weniger Licht als die im Zentrum. Diese Abnahme ist von Objektiv zu Objektiv, von Blende zu Blende - und bei Zooms von Brennweite zu Brennweite - verschieden. Das Problem kann man nicht einfach so lösen.
2. Der Preis, welcher mit der Fläche quadratisch wächst. Die Wahrscheinlichkeit, auf einem Chip keinen Fehler zu haben sinkt dramatisch mit der Grösse - wie bei den LCD-Bildschirmen. Zudem kann man diese Fehler nicht ausbessern. Ein Vollformatsensor kostet darum vier Mal mehr als ein APS-C-Sensor.
3. Die Chips haben auch Probleme, welche mir der Fläche wachsen: Elektromigration, flächige Qualitätsunterschiede der Pixel auf dem selben Chip, minimale Unebenheiten, Auslesegeschwindigkeit. Alles führt zu Chip-individuellen Fehlern, welche in Rauschen, Flecken oder Geschwindigkeit Ausdruck finden.
4. Da die CCDs "Photonen" zählen und es dabei immer zu statistischen Unterschieden zwischen benachbarten Pixels kommt, haben hohe Auflösungen mehr mit Schärfe, Rauschen und Körnigkeit zu kämpfen als niedrigere Auflösungen. Mit Algorithmen und Hardware kann man solche Fehler reduzieren, jedoch immer auf Kosten der Qualität. Das Foto ist halt nur so gut, wie die Basis (also der CCD-Output) es zulässt. Jede Bearbeitung kosten Qualität.
Ich gehe davon aus, dass die Gesamtbildqualität wohl bei 12-16 MPixeln für das RGGB-Schema das Optimum für APS-C-Sensoren erreicht. Irgendwann gab's mal einen Effort (von IBM?), einen Multilayer-CCD zu entwickeln, wo die Farbempfindlichkeiten untereinander liegen. Dort wird wohl das Optimum bei 50 MPixeln liegen. Aber das wird wohl erst in 10 Jahren kommen.
Für mich heisst das: Solange ich auch analog Fotografiere, wird die Zahl der APS-C-Objektive minimal (1-2 Zooms, vor allem Extremweitwinkel) gehalten, bei den Qualitätsobjektiven (G) kommt nur Vollformat in Frage. So werden es wohl auch die anderen halten, glaube ich.
Beste Grüsse, Josef.