Beispielhaft nehme ich einmal vereinfachend an, dass ein Motiv lediglich aus zwei abzubildenden Objekten besteht. Ein Hauptobjekt auf das scharf gestellt wird und ein Nebenobjekt, das sich seitwärts und ein Stück hinter dem Hauptobjekt befindet.
Die Perspektive ist in diesem vereinfachten Bild nichts anderes als
1. das Grössenverhältnis dieser beiden Objekte zueinander, das man auf der abbildenden Fotografie ausmessen und berechnen könnte und
2. der Winkel zwischen den beiden Linien, die vom Aufnahmeort des Fotografen zu den beiden Objekten gedacht werden können.
Der Fotograf macht nun zwei Aufnahmen, eine mit 200 mm und eine mit 28mm Brennweite. Er macht beide Aufnahmen vom gleichen Standpunkt aus.
Beide Aufnahmen unterscheiden sich dann hinsichtlich:
1. Abbildungsmasstab, der sich nur mit der Brennweite verändert. Das Objektiv mit der 200er Brennweite liefert dabei eine stärkere Vergrösserung, das Hauptobjekt wird beispielsweise formatfüllend abgebildet. Die 28mm Brennweite bildet es nur sehr klein ab.
2. Schärfentiefe, die beim kurzbrennweitigen 28er Objektiv grösser ist. Das bedeutet, man sieht das Nebenobjekt, das sich weiter weg als das Hauptobjekt befindet, bei der Aufnahme mit dem 28er Objektiv schärfer als mit dem 200er Objektiv, bei dem es sich beginnt, in Unschärfe aufzulösen.
Wichtig ist: unverändert bleibt lediglich
die Perspektive, weil der Fotograf den Aufnahmestandpunkt nicht verändert hat.
Dies kann man nachprüfen, indem man eine Ausschnittsvergrösserung der Aufnahme des 28er Objektivs macht, die so gross ist, dass sie den gleichen Bildausschnitt zeigt, wie die Aufnahme des 200er Objektivs. Legt man dann die Aufnahme des 200er Objektivs auf die Ausschnittsvergrösserung der 28er Aufnahme, sind alle abgebildeten Objekte absolut deckungsgleich übereinander. Lediglich der Bildeindruck unterscheidet sich aufgrund des in Unschärfe aufgelösten Nebenobjektes der 28mm Aufnahme.
Schneidet man nun aus einer Analogaufnahme auf Vollformat (Negativ) mit 75 mm Objektiv einen äusseren Rahmen ab, bis das Negativ so gross ist wie ein APS-C Chip (der besitzt crop Faktor 1,5) und legt es auf die digitale Vergleichsaufnahme in Grösse des Sensors, die vom gleichen Standpunkt aus mit einem 50mm Objektiv fotografiert wurde (das bedeutet gleiche Perspektive), sind Haupt- und Nebenobjekt wieder absolut deckungsgleich. Die digitale Aufnahme weist jedoch eine grössere Schärfentiefe auf.
Umgekehrt kann man natürlich die digitale Aufnahme (Bild in Grösse des Sensors)vergrössern, bis man sie deckungsgleich auf die analoge Aufnahme legen kann (Bild in Grösse eines Negativs). Dann bleibt wiederrum die Perspektive gleich und die Schärfentiefe der digitalen Aufnahme (50mm Objektiv) weist eine grössere Schärfentiefe auf als die analoge Aufnahme mit 75mm Objektiv. Die analoge Aufnahme enthält jedoch einen äusseren Rahmen, der über die digitale Aufnahme hinausragt, der digitalen Aufnahme fehlt also aussen herum etwas Bild.
Dieser fehlende Rahmen entspricht einer Eingrenzung des sogenannten Bildwinkels bei der digitalen Aufnahme, und führt bei deckungsgleicher analoger und digitaler Aufnahme zu eine tele-ähnlichen Effekt, der jedoch zwei Nachteile aufweist:
1. man hat eine grössere Schärfentiefe als bei der "echten" analogen Teleaufnahme (75mm Objektiv)
2. man musste das Bild ja vergrösssern, um es mit der analogen Aufnahme deckungsgleich zu machen. Dies bedeutet einen Auflösungsverlust, den man dann sieht, wenn man sich die analoge und digitale Aufnahme in einen gleich grossen Bilderrahmen nebeneinander an die Wand hängt . Also ein leichter Qualitätsverlust bei der digitalen Aufnahme, den man natürlich nur bei relativ grossem Bilderrahmen spürbar wahrnimmt. Je mehr Pixel nun auf der Fläche des digitalen Sensors waren, desto grösser sind dessen Auflösungsreserven für solche Vergrösserungen und desto geringer ist der Qualitätsnachteil der digitalen Aufnahme ggü. der analogen Aufnahme.
In einem weiteren Beispiel könnte man die digitale und analoge Aufnahme beide mit einem 50 mm Objektiv vom gleichen Standpunkt aus aufnehmen. Legt man dann den Sensor (man nehme an, man könnte das Bild auf diesem sehen ;-) ) auf das Negativ, sind beide Aufnahmen deckungsgleich und weisen die gleiche Schärfe des Nebenobjektes auf und besitzen natürlich die gleiche Perspektive. Der Sensor ist lediglich kleiner als das Negativ. Das Negativ enthält aussen herum zusätzliche Bildteile. Vergrössert man beide Aufnahmen, bis sie in einen gleich grossen Bilderrahmen passen (natürlich beim Negativ vorher den überstehenden Bildteil abschneiden), und betrachtet man sich die beiden Bilder an der Wand hängend, hat das digital aufgenommene Bild im Prinzip die gleiche Qualität wie das analog aufgenommene, da ja beide Aufnahmen gleich stark vergrössert wurden.
Um Qualitätsnachteile bei gerahmten Bilder zu vermeiden, sollten digitale Sensoren im Prinzip möglichst gross sein (Vollformatchip), damit man sie später möglichst nicht stärker als ein Negativ vergrössern muss und aus möglichst vielen Pixeln bestehen, um eine hohe Auflösungsreserve zu haben.
Leider bringt ab einem gewissen Punkt eine hohe Pixeldichte wieder technisch bedingte Störungen in das digitale Bild. Daran, die Pixeldichte störungsfrei möglichst hoch zu treiben, arbeiten die Hersteller. Einige Kameras mit kleinen Sensoren weisen inzwischen wahrscheinlich eine zu hohe Pixeldichte auf und produzieren damit Bildstörungen die nachteiliger sind als die gewonnene höhere Bildauflösung.
E.G.
PS
eigenlich wollte ich keinen Aufsatz mit Inhalten schreiben, die den Dauerusern des Forums schon bekannt sind (hoffentlich hat sich kein Fehler eingeschlichen), aber wenn man schon mal dabei ist... Vielleicht nützt es ja dem ein oder anderen Forumsneuling, der sich zum ersten mal mit Digitalkameras beschäftigen möchte, dabei, nicht vom Digitalkamera-Marketing bombardement der Hersteller in die Irre geführt zu werden (Stichworte: "Megapixel sind geil", "Verlängerungsfaktoren ersetzen lange und teure Spitzenteleobjektive analoger Kameras" etc. pp)