Warum verwenden Mainstream-Sensoren keine CYM-Filter anstelle von RGB?


18

Soweit ich weiß, haben die meisten Digitalkameras einen Sensor, bei dem jeder Pixelsensor drei Subsensoren hat, von denen jeder einen R-, G- und B-Filter hat. RGB ist offensichtlich das grundlegendere Farbmodell, da es direkt mit den Rezeptoren (Zapfen) im menschlichen Auge korrespondiert.

RGB-Filter schneiden jedoch notwendigerweise zwei Drittel des weißen Lichts aus, um ihre Komponente zu erhalten. Sicherlich würden Kameras von kürzeren Belichtungszeiten profitieren, wenn die Filter CYM wären, bei denen jedes Element nur ein Drittel des Lichts ausschneidet. Der Prozessor der Kamera kann das Bild weiterhin in dem vom Verbraucher gewünschten Format speichern, da ein CYM-Datenpunkt problemlos in ein RGB-Format konvertiert werden kann.

Ich weiß, dass dies manchmal in der Astrofotografie gemacht wird, wo drei separate Schwarzweißfotos mit CYM-Filtern aufgenommen werden.

Liege ich einfach falsch und das ist in der Tat bereits erledigt - oder gibt es einen guten Grund für einen RGB-Sensor?


1
In der Langzeit-Astrofotografie, einem der wenigen Bereiche, in denen die Gesamtmenge des aufgenommenen Lichts ein Hauptanliegen ist, besteht ein gängiger Ansatz darin, einen reinen Monochromsensor zu verwenden und (relativ) kurze Belichtungszeiten mit Rot-, Grün- und Blaufiltern zu kombinieren Färben Sie das Bild mit einem viel längeren Intervall, in dem kein Filter verwendet wird, um das Detail im Endergebnis zu maximieren.
Dan Neely

Antworten:


19

Zunächst ein wenig Hintergrundwissen, um ein leichtes Missverständnis von Ihrer Seite auszuräumen.

Die überwiegende Mehrheit der digitalen Farbkameras verfügt über einen Bayer-Filter , der jedes Pixel mit einem Farbfilter maskiert: Rot, Grün oder Blau. ¹ Die RAW-Daten enthalten keine Farbinformationen, sondern nur einen Luminanzwert für jedes Pixel.

RGB-Filter schneiden jedoch notwendigerweise zwei Drittel des weißen Lichts aus, um ihre Komponente zu erhalten.

Nicht wirklich. Es gibt viel grünes Licht, das es an den Filtern 'Rot' und 'Blau' vorbei bringt. Es gibt viel 'rotes' Licht und ein gutes Stück 'blaues' Licht, das den 'grünen' Filter passiert. Es gibt ein 'blaues' Licht, das am Rotfilter vorbeigeht und umgekehrt. Die Wellenlängen, auf die sich die Filter 'Grün' und 'Rot' konzentrieren, liegen sehr nahe beieinander, und 'Rot' liegt normalerweise irgendwo zwischen 580 nm und 600 nm, was mehr im Bereich 'Gelb-Orange' als im Bereich 'Rot' liegt. Die "Peaks" der Filter in einem typischen Bayer-Array stimmen nicht mit den Wellenlängen überein, die wir als "rot", "grün" und "blau" beschreiben.

Bildbeschreibung hier eingeben

In gewisser Hinsicht sind unsere Kameras also wirklich YGV (Gelb-Grün-Violett) und RGB. Unsere Farbwiedergabesysteme (Monitore, Drucker, Rollendruckmaschinen usw.) sind RGB, CMYK oder eine andere Farbkombination.

Bildbeschreibung hier eingeben

Dies ahmt das menschliche Auge nach, in dem unsere "roten" Kegel um 565 nm zentriert sind, was ein grünliches Gelb ist, im Gegensatz zu unseren "grünen" Kegeln, die um 540 nm zentriert sind, was grün ist und nur einen Hauch von Gelb enthält Weitere Informationen darüber, wie sowohl das menschliche Sichtsystem als auch unsere Kameras aus dem Teil des elektromagnetischen Strahlungsspektrums, den wir als "Licht" bezeichnen, "Farbe" erzeugen, finden Sie unter: Warum sind Rot, Grün und Blau die Primärfarben des Lichts?

Zwischen den Filterfarben gibt es keine harte Grenze, wie bei einem Filter, der in einem wissenschaftlichen Instrument verwendet wird und nur ein sehr enges Wellenlängenband durchlässt. Es ähnelt eher den Farbfiltern, die wir für Schwarzweißfilme verwenden. Wenn wir einen Rotfilter mit Schwarzweißfilm verwenden, verschwinden alle grünen Objekte nicht oder sehen ganz schwarz aus, wie dies bei einem harten Cutoff der Fall wäre. Vielmehr sehen die grünen Objekte dunkler aus als die roten Objekte, die in der tatsächlichen Szene ähnlich hell sind.

Fast alle Bayer-Filter enthalten wie das menschliche Auge doppelt so viele "grüne" Pixel wie "rote" oder "blaue" Pixel. Mit anderen Worten, jedes zweite Pixel wird mit "Grün" maskiert und die verbleibende Hälfte wird zwischen "Rot" und "Blau" aufgeteilt. Ein 20-Megapixel-Sensor hätte also ungefähr 10 Millionen grüne, 5 Millionen rote und 5 Millionen blaue Pixel. Wenn die Luminanzwerte von jedem Pixel von der Verarbeitungseinheit der Kamera interpretiert werden, wird die Differenz zwischen benachbarten Pixeln, die mit unterschiedlichen Farben maskiert sind, zum Interpolieren eines Rot-, Grün- und Blau-Werts verwendet ( der tatsächlich etwa 480, 530 und 640 Nanometern entspricht ). für jedes Pixel. Jede Farbe wird zusätzlich ungefähr auf die Empfindlichkeit des menschlichen Auges gewichtet, so dass das "Rot"

Das Umwandeln von monochromen Luminanzwerten von jedem Pixel in einen interpolierten RGB-Wert für jedes Pixel wird als Demosaikieren bezeichnet. Da die meisten Kamerahersteller dafür proprietäre Algorithmen verwenden, werden bei Verwendung von RAW-Konvertern von Drittanbietern wie Adobe Camera RAW oder DxO Optics geringfügig andere Ergebnisse erzielt als bei Verwendung des herstellereigenen RAW-Konverters. Es gibt einige Sensortypen wie den Foveon, bei denen drei farbempfindliche Schichten übereinander gestapelt sind. Die Hersteller behaupten jedoch, ein solcher Sensor mit drei übereinander gestapelten 15MP-Schichten sei ein 45MP-Sensor. In der Realität liefert eine solche Anordnung die gleiche Detailgenauigkeit wie ein herkömmlicher Bayer-Maskensensor mit ca. 30 MP. Zumindest bisher war das Problem bei Sensoren vom Typ Foveon eine schlechtere Rauschleistung in Umgebungen mit schlechten Lichtverhältnissen.

Warum verwenden die meisten Digitalkameras keine CYM-Filter anstelle von RGB¹-Filtern? Der Hauptgrund ist die Farbgenauigkeit, die durch die menschliche Wahrnehmung der verschiedenen Lichtwellenlängen definiert wird. Bei Verwendung einer CYM-Maske ist es viel schwieriger, Farbwerte mit Werten benachbarter Pixel genau zu interpolieren als bei Verwendung einer "RGB" -Maske.¹ Sie verzichten daher auf eine geringe Lichtempfindlichkeit, um die Farbgenauigkeit zu verbessern. Schließlich erfolgt die meiste kommerzielle Fotografie auf höchstem Niveau entweder mit kontrollierter Beleuchtung (z. B. in einem Porträtstudio, in dem das Hinzufügen von Licht einfach genug ist) oder mit einem Stativ (das längere Belichtungszeiten ermöglicht, um mehr Licht zu sammeln). Und die Anforderungen professioneller Fotografen sind es, die die Technologie antreiben, die dann den Weg zu Produkten für Endverbraucher findet.

¹ Mit Ausnahme der drei Farbfilter für die meisten "RGB" - Kameras mit Bayer - Maske sind sie wirklich "blau mit einem Hauch von Violett", "grün mit einem Hauch von Gelb" und irgendwo zwischen "gelb mit einem Hauch von Grün" (was die Farbe nachahmt) am meisten menschliches Auge) und 'Gelb mit viel Orange' (was für einen CMOS-Sensor einfacher zu implementieren zu sein scheint).


Danke für die Bayer Filterinformation. Als jemand, der in einem düsteren Land mit schlechten Lichtverhältnissen lebt, würde ich immer die Empfindlichkeit optimieren, aber ich verstehe das Argument für die Farbgenauigkeit. Gute Antwort!
Robin

Hat Ihr düsteres Land mit schlechten Lichtverhältnissen keinen Strom und keine Glühbirnen? :-)
Michael C

Wir sind das Land mit der weltweit höchsten Videoüberwachungsdichte. Ich denke, einige Kameras funktionieren. Was Glühbirnen angeht ... Ich nutze lieber die herrliche Kraft der Sonne.
Robin

Selbst die strahlende Kraft der Sonne benötigt manchmal einen Reflektor, um die Schattenseite eines Motivs zu beleuchten. Und die Sonne "schläft" die Hälfte der Zeit im Laufe eines Jahres, egal wo auf diesem Planeten Sie sich befinden.
Michael C

10

Cyan-Magenta-Gelb-Sensoren wurden zusammen mit Rot-Grün-Cyan und einigen anderen Variationen hergestellt.

Das Hauptproblem besteht darin, dass selbst bei RGB-Sensoren eine signifikante Überlappung zwischen der spektralen Antwort jedes der Farbstoffe besteht, dh die "grünen" Pixel sind in gewissem Maße empfindlich gegenüber rotem und blauem Licht. Dies bedeutet, dass die Ergebnisse komplexe Berechnungen erfordern, um genaue Farben zu erhalten. Die relativen Antworten benachbarter roter und blauer Pixel werden verwendet, um zu beurteilen, wie viel der grünen Antwort tatsächlich das Ergebnis von rotem und blauem Licht war.

Mit CMY ist das Problem viel schlimmer. Sie tauschen im Wesentlichen Lichteffizienz gegen Farbgenauigkeit. Dies ist möglicherweise in Ordnung für astronomische Fotografie, bei der Sie nicht immer scharfe Farbgrenzen haben. Daher können Sie das Farbrauschen durch Unschärfe reduzieren. Für Landschafts- oder Modefotografie ist dies jedoch nicht geeignet.


Bei den RGB-Chips variiert die genaue Auswahl der Filter je nach Hersteller. Canon verwendet beispielsweise schwache Farbstoffe mit einer breiten Empfindlichkeit, um die Leistung bei schlechten Lichtverhältnissen zu verbessern. Die verwendeten Farbstoffe sind jedoch auch darauf abgestimmt, Farben bei fluoreszierender Beleuchtung zu erkennen, zum Vorteil der Armee von Sport- und Nachrichtenfotografen, die Canon-Kameras verwenden.

Sony hingegen hat mit dem A900 versucht, mit einer sehr hohen Farbgenauigkeit in den professionellen Modemarkt einzusteigen. Farbfilter-Arrays, die in Digitalrückteilen mit mittlerem Format verwendet werden, sind so abgestimmt, dass sie ansprechende (wenn auch nicht unbedingt genaue) Hauttöne liefern.


Wäre es für eine Kamera praktisch, zu versuchen, eine etwas augenähnliche Leistung zu erzielen, indem eine Mischung aus stark abgestorbenen und schwach abgestorbenen Pixeln verwendet wird, wobei möglicherweise auch die Pixelgröße variiert wird, so dass bei Lichtverhältnissen die kleineren Pixel stark eingefärbt werden nahmen aussagekräftige Daten auf, die zur Erzeugung gesättigter Farben verwendet wurden, während bei schlechten Lichtverhältnissen die schwächer gefärbten Pixel einen saubereren Luminanzkanal lieferten, während die adaptive Filterung zur Bereinigung des Farbrauschens verwendet wurde.
Supercat

1
"Das Hauptproblem ist, dass es selbst bei RGB-Sensoren eine signifikante Überlappung zwischen den Spektralantworten der einzelnen Farbstoffe gibt ..." Es wäre ein viel größeres Problem, wenn jeder Filter die von den anderen erlaubten Lichtfrequenzen vollständig blockieren würde. Die gesamte Wahrnehmung von "Farbe" durch das menschliche Sehen ist auf die überlappende Reaktion der Zapfen in unserer Netzhaut auf Licht mit verschiedenen Frequenzen zurückzuführen. Es gibt keine Farben, die in verschiedenen Wellenlängen des Lichts selbst enthalten sind, nur in der Wahrnehmung des Lichts durch unser trichromatisches Sehen mit überlappenden Reaktionen der S-, M- und L-Zapfen in unserer Netzhaut.
Michael C

2

Die Gründe, warum sich Kamerahersteller für das RGBG Bayer-Array entschieden haben, hängen wahrscheinlich mehr mit Patenten, Verfügbarkeit und Kosten zusammen als mit der Farbgenauigkeit. Grundsätzlich sollte jeder Satz von drei geeigneten "orthogonalen" (sozusagen) Farben für die Farbwiedergabe in Ordnung sein. Mit moderneren Sensoren und Prozessoren sollte es noch einfacher sein.

Ich bezweifle die Behauptung der Farbgenauigkeit zwischen RGB und CMY, da die Konvertierungen zwischen RGB und CMYK für den Druck immer durchgeführt werden. Vor dem Weißabgleich entsprechen die demosaikierten Farben in Rohdateien nicht den tatsächlich gewünschten Farben. Wenn die Farben wirklich "genau" wären, müssten Fotografen nicht so viel Zeit mit der Farbkorrektur von Fotos verbringen.

Die verschiedenen Sensorexperimente von Fujifilm (Super CCD, EXR CMOS, X-Trans) zeigen, dass es nicht unbedingt der beste Weg ist, etwas auf bestimmte Weise zu tun, nur weil alle anderen dies tun. Kodak experimentierte auch mit verschiedenen Farbarrays , aber sie vermarkteten ihre Technologie und Patente nicht sehr gut.

Die Nikon Coolpix 5700, eine 5-Megapixel-Kamera aus dem Jahr 2002, scheint zu den letzten Kameras zu gehören, die ein CYGM-Farbarray verwenden . Digitalfotografie Bewertung sagt (Betonung hinzugefügt) :

Die Bildqualität ist exzellent, mit dieser großartigen Matrixmessung, der guten Tonbalance und Farbe (genau und lebendig, ohne die Farben auszublenden) sowie einer überdurchschnittlichen Auflösung. Lila Ränder sind nach unten, aber das Gesamtbild ist immer noch sehr "Coolpix". Der Geräuschpegel ist gut, insbesondere im Vergleich zu anderen Fünf-Megapixel-Digitalkameras (wie unser Vergleich mit der Minolta DiMAGE 7i zeigt).

Die wenigen Bildqualitätsdetails, die wir aufgegriffen haben; Laufverzerrungen, Spitzlichter und Bayer-Artefakte sind keine Probleme, die das tägliche Fotografieren beeinträchtigen und die Bildqualität des 5700 insgesamt nicht beeinträchtigen.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.