Warum leiden Digitalkameras angeblich stärker unter Farbfehlern als Filmkameras?


15

Was macht Digitalkameras anfälliger für Farbfehler als Filmkameras?

Ich habe dies auf vielen Websites gelesen, aber die Erklärungen unterscheiden sich von meiner Meinung nach weniger glaubwürdigen Erklärungen wie "Die hohe Auflösung der Digitalkamera macht sie prominenter" zu glaubwürdig klingenden Erklärungen mit Farbfiltern vor dem Sensor, die eine weitere Quelle darstellen der aberration aber auch das, was die linse schon produziert hat.

Enthält die Aussage überhaupt eine Wahrheit, und wenn ja, warum ist dies der Fall?


3
Geben Sie eine Quelle an, sonst klingt das nach einem dummen Mythos. Es ist die Linse, die einen chromatischen Abrieb verursacht, nicht der Sensor. Es gibt einige Probleme aufgrund der Bayer-Matrix, aber ich würde diese "chromatischen Abberationen" nicht nennen. Chromatische Abberationen entstehen, wenn die Linse unterschiedliche Lichtwellenlängen unterschiedlich fokussiert.
Olin Lathrop

2
Ich kann nicht die genauen Quellen angeben, in denen ich ursprünglich darüber gelesen habe (es war vor einer Weile), aber eine schnelle Suche ergab viele ähnliche Ergebnisse: 1 2 3 4 . Es kann sehr gut ein Mythos sein, wie ich in der Frage geschrieben habe, aber wenn ja, ist es weit verbreitet
Hugo

2
Vielleicht, weil Filmkamera-Fotos meistens mit 15 x 10 cm Lichtreflexionsdrucken in gemütlichem Licht betrachtet wurden, bei denen der Betrachter das große Bild im Auge hatte, während praktisch alle Digitalfotos bei 100% "Crop" auf 15 bis 25 Zoll Lichtemission genau auf Fehler untersucht werden Monitore oder 30-50 Zoll Fernseher?
Michael Nielsen

Digital ist im Allgemeinen so viel schärfer, dass Sie Probleme sehen, die im Film nicht erkennbar sind, auch weil Sie im Film nicht auf "1: 1" zoomen, während dies im Digitalbereich üblich ist. Nehmen Sie einen Film, vergrößern Sie ihn um das 500-fache und lassen Sie uns sehen, ob Sie nach der allgemeinen Unschärfe keine Aberration feststellen können.
FarO

Antworten:


10

Offensichtlich wird durch die Linse eine chromatische Aberration erzeugt, und der CA-Betrag ist derselbe.

Film als Medium und Sensor reagieren jedoch etwas unterschiedlich. Echtes senkrechtes Licht wird in beiden Fällen auf ähnliche Weise behandelt, aber abgewinkeltes Licht trifft auf eine andere Oberfläche, wenn ein Film verwendet wird und wenn ein CMOS-Sensor verwendet wird.

CMOS-Sensoren haben winzige Linsen über dem Farbfilter (siehe hier ), und es ist ziemlich schwierig, eine einheitliche Gruppengeschwindigkeit in einer kleinen Linse für alle Arten von Lichtwellenlängen bereitzustellen, sodass diese eine winkelabhängige und wellenlängenabhängige Reaktion auf das Eintreffen erzeugen Licht. (Betrachten Sie weißes Licht, das durch ein Prisma geht - gleicher Effekt).

Ein Film hat eine viel geringere Empfindlichkeit gegenüber dem Einfallswinkel. Sie fotografieren also einfach die Zertifizierungsstelle.

Auf der anderen Seite sehen R, G und B, die aus einem Winkel kommen, andere Sensorempfindlichkeiten (jede ist anders) als RGB, die senkrecht zum Sensor kommen. Das wird sich als Farbverschiebung oder Farbänderung zeigen, was die CA verschlimmert.

Nun, das ist die Erklärung, die mir für Ihre Frage einfällt.

(Und ein guter Test wäre, gerichtetes weißes Licht auf einem CMOS-Sensor zu verwenden und Fotos zu machen, die von der Senkrechten ausgehen und dann mehr und mehr geneigt werden. Ich würde ein bisschen Farbverschiebung erwarten. Aber versuche das nicht zu Hause :-) ).


2
Es gibt auch das ziemlich dicke (ca. 1 mm) Antialiasing- / UV- / IR-Filterglas, das direkt vor dem Sensor sitzt. In den Ecken des Sensors trifft einfallendes Licht in einem spitzen Winkel (es sei denn, das Objektiv ist telezentrisch), was die Farben beeinträchtigen kann. Insbesondere bei einigen Leica M-Mount Weitwinkelobjektiven, bei denen ein hinteres Element mit kleinem Durchmesser tief in die Kamera eingelassen ist, nicht in das "Spiegelhaus", sondern in den entsprechenden Hohlraum in der Kamera, nahe der Filmebene. Das passiert beim Film nicht. Mikrolinsen können nur so viel tun, um dies zu überwinden.
Staale S

@TFuto - siehe bitte meine Antwort. Es besteht hier keine Notwendigkeit für eine jargonartige Gruppengeschwindigkeit (ein ausgefallenes Wort für das, was axiale Farbe bedeutet). Die Mikrolinsen sind auch für CA nicht sehr relevant, da selbst wenn es eine seitliche Farbe für eine anständig gestaltete Mikrolinse gäbe, das blaue Licht entweder bereits über dem roten Pixel gefiltert oder unter der Mikrolinse herausgefiltert werden würde. Wenn dies nicht der Fall wäre, würde die Bayer-Matrix verfälscht und Sie würden sehr seltsame Bilder aus der Kamera erhalten.
Brandon Dube

1

Eine Digitalkamera quantisiert das Licht gröber als ein Film. Überlegen Sie, ob die Linse 3 Mikrometer chromatische Aberration aufweist. Auf einem Filmbild erhalten Sie aufgrund der Silberhalogenidkristalle des Films etwas Größeres als 3 Mikrometer - vielleicht 3,1 Mikrometer. Bei einer Digitalkamera betragen die Pixel beispielsweise 6 Mikrometer pro Seite. 3 Mikrometer reichen aus, um in das benachbarte Pixel zu gelangen, sodass sich die chromatische Aberration im Vergleich zum Film verdoppelt zu haben scheint.

Sie sehen die Farbe auch anders. Betrachten Sie diesen Test jemand zusammen. Betrachten Sie Beispiel 6. Das blaue Fahrzeug hinter dem überbelichteten ist im Filmbild fast schwarz und im digitalen halbwegs hell. Die roten Scheinwerfer sind auch sehr unterschiedlich belichtet, auch relativ zu den Dingen um sie herum.

Dies impliziert, dass der Film für rotes Licht weniger empfindlich und für blaues Licht auch weniger empfindlich ist. Alles, was Sie sehen, ist Magenta, was keine Farbe ist , sondern eine Kombination aus Rot und Blau. Wenn der Film gegenüber diesen Farben weniger empfindlich ist als gegenüber weißen oder grünlichen Elementen der Szene, verringert sich die Intensität der chromatischen Aberration und damit die Sichtbarkeit.


Der Link, den Sie mit "Keine Farbe" betitelt haben, unterstützt diesen Anspruch nicht.
Mattdm

@mattdm _ es ist physiologisch und psychologisch als die Mischung aus rotem und violettem / blauem Licht wahrgenommen, mit der Abwesenheit von Grün._
Brandon Dube

1
"Magenta ist eine extraspektrale Farbe". Das ist überhaupt nicht dasselbe wie "keine Farbe". Ich meine, "Farbe" hat viele verschiedene technische Definitionen, aber ich denke nicht, dass eine solche Beschränkung besonders nützlich ist. (Nach dieser Definition wären Pink und Braun auch keine Farben.) Und der von Ihnen angegebene Link definiert ihn als Farbe, genau dort, wo ich ihn zitiere .
Mattdm

1
Ich denke, Ihre Antwort ist in Ordnung, außer, wie ich bereits sagte, Ihr Link zu "Magenta ist keine Farbe" führt zu einer Seite, auf der wörtlich steht, dass Magenta eine Farbe ist. Wenn Sie argumentieren möchten, dass es sich aus irgendeinem Grund nicht um eine Farbe handelt, sollten Sie zumindest eine bessere Referenz finden.
Mattdm

1
Spektrale Farbe ist Farbe, die wir als Reaktion auf den Reiz einzelner (oder in der Praxis sehr eng ähnlicher) Lichtwellenlängen wahrnehmen. "Reine Farbe" kann diesen Sinn haben, aber es hat auch andere Sinne.
Mattdm

0

Ich glaube nicht, dass einer der möglichen Gründe, die Sie gelesen haben, falsch ist. Sicherlich scheinen die meisten Gründe in den von Ihnen angegebenen Links plausibel genug zu sein, um ein geringes Maß an chromatischem Abberation zu verursachen.

Dinge wie wackelige Linsenelemente und andere Herstellungsprobleme, die schiere Komplexität moderner Linsen im Vergleich zu denjenigen der Filmzeit und das Hinzufügen von Mikrolinsen auf dem Sensor tragen alle dazu bei, dass Sie Farbsäume sehen. Eine höhere Auflösung, so blöd das auch klingt, hebt Unvollkommenheiten in vielen Objektiven hervor, und ehrlich gesagt glaube ich nicht, dass es möglich ist, einen Ausdruck mit einem großen Bildschirm bei 100% Zoom fast so nah wie möglich zu untersuchen.

So schön es auch ist zu sagen, dass es einen bestimmten Grund gibt, warum Film in dieser Hinsicht besser ist als digital, so scheint es, dass es sich tatsächlich um eine Kombination vieler kleinerer Faktoren handelt.


Sie liegen falsch. Die Erwartungen hatten nichts damit zu tun. Chromatische Aberrationen sind bei digitalen Bildern stärker ausgeprägt als bei Filmen. Es kann gemessen werden. Einer dieser Versuche wurde von der Genotyp- Schreibmaschine unternommen: secure.flickr.com/photos/genotypewriter/6147351879 - das Ergebnis ist offensichtlich: Der Film gewinnt, wenn es um CA geht.
MarcinWolny

1
Hat meine Antwort geändert, um meinen letzten Kommentar zu entfernen. Auf meinem Handy werde ich die Links also später lesen - in der Zwischenzeit werde ich dein Wort dafür nehmen. :-P
Thomas Bisset

0

Dies liegt an der Art und Weise, wie Farbe aus dem Sensor extrahiert wird. Nur wenige Digitalkameras sehen wirklich Farbe (der alte Sigma Foveon ist einer von ihnen in großen "öffentlichen" Spiegelreflexkameras). Der Sensor sieht nur die Intensität des Lichts, so dass "schwarz und weiß" und ein Frontgitter mit Farbfilter verwendet werden, um später im Prozess zu versuchen, die ursprüngliche Farbe zu definieren. (siehe Bayer-Raster und ihre Entwicklung) ( Beispiel einer Bayer-Anwendung ) Aufgrund dieser Interpretation geben einige Situationen die falsche Farbe als Abzug. Dies geschah häufig am Rand einer scharfen Oberfläche.


3
Können Sie bitte erläutern und / oder Quellen angeben, warum dies zu Farbsäumen führt? Wenn dies der Grund ist, scheint es nicht mit chromatischer Aberration zu tun zu haben.
Hugo

2
Beachten Sie auch, dass die Funktionsweise des Bayer-Sensors der Funktionsweise des menschlichen Auges näher kommt als die von Foveon! Nach diesem Standard sieht der Mensch auch keine Farbe!
Mattdm

Ich empfehle diesen Artikel, in dem erklärt wird, wie Phaseoneimageprofessor.wordpress.com/tag/bayer-pattern angehängt wird (ohne das Rad neu zu erfinden). Sie können auch in der Wiki-Pedia nach foveon suchen, die teilweise auch erklärt (Vorteil von foveon in diesem Thema) en.wikipedia.org/wiki/Foveon_X3_sensor . @mattdm, das rechte Auge funktioniert mehr wie Bayer, aber die Streuung des Sensors der Augeneinheit unterscheidet sich von einem "normalen" Bayer-Raster. Außerdem erfasst jede Basiseinheit unterschiedliche Informationen, wobei Bayer / Sensor die gleichen Filter erfassen, so dass Aberationen nicht auf die gleiche Weise von den Sensoren verarbeitet werden Gehirn.
NeronLeVelu

1
Dies erklärt, wie ein Bayer-Sensor eine bestimmte Klasse von Farbfehlern verursachen kann, aber ich würde diese Fehler nicht als chromatische Abberation bezeichnen, wie in der Frage gestellt.
Olin Lathrop

0

Ich denke, Hugo schreibt über Blooming, das auf Sensoren auftritt. Hauptsächlich kleine Sensoren mit hoher Auflösung sind anfällig für Blüte. Es wird durch eine hohe Lichtintensität verursacht, die viel höher ist als bei einer Fotodiode. Die elektrische Ladung fließt also über in benachbarte Fotodioden. Infolgedessen entstehen die farbigen Ringe am Rand überbelichteter Bereiche.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.