ZITAt (Dennis @ Saturday, 2006-08-12, 15:09) /biggrin.gif" style="vertical-align:middle" emoid="" border="0" alt="biggrin.gif" /> Hmm... die Analogie passt nicht so ganz. Der technische Background ist ganz trivial: Die Einzelsensoren sind nichts weiter als Photonen-Sammler. Je kleiner ein solcher Einzelsensor ist, desto weniger Photonen kann er auffangen, und desto weniger Photonen "passen rein" bis er voll ist. Da aber auch jeder Einzelsensor und jede Schaltung grundsätzlich rauscht, wird das Verhältnis von Nutzsignal (den eingefangenen Photonen) und Störsignal (Rauschen) immer schlechter, je weniger Photonen eingefangen werden. Daher ist bei kleinen "Pixeln" das Bildrauschen stärker, als bei großen. Große Einzelsensoren rauschen natürlich grundsätzlich nicht weniger als kleine, aber da sie viel mehr Photonen auffangen können, haben sie ein wesentlich besseres Verhältnis zwischen Nutz- und Störsignal. Das hat also nichts mit Einflüssen der umliegenden Zellen zu tun, sondern einfach nur mit der Fläche der Einzelsensoren, und die hängt natürlich von Anzahl, Sensorgröße und Aufbau ab.[/quote]
Hallo Dennis,
Vielen Dank für die Erklärung.
Ich dachte, ich hätte mal was davon gelesen, dass es wenn ein Einzelsensor ausfällt die sichtbare Störung auf dem Bild dann grösser ausfällt, als nur 1 Pixel, weil eben das defekte Pixel die umliegenden irgendwie "komprimittiert".
Wie ist denn der Effekt zu erklären, dass es manchmal aufgrund von Pixelfehlern eben weisse Punkte im Bild gibt? Also rauschen dann da einfach gleich ein paar Hundert Pixel gleichzeitig ab, oder was?
Ich zumindest denke ich, dass ich auf einem 10x15 Ausdruck mit 5 Millionnen Pixel einen einzelnen Pixel identifizieren kann und trotzdem erkenne ich die weissen Punkte, die dann als Pixelfehler bezeichnet werden.
Danke und Gruss
Christoph