Warum ist der blaue Kanal am lautesten?


31

Es ist weit verbreitet, dass der blaue Kanal bei Digitalkameras am lautesten ist. Das ist mir mit meiner Kamera auf jeden Fall aufgefallen. Warum ist das?

Handelt es sich um ein Artefakt einer bestimmten Technologie (z. B. Bayer-Array- oder CMOS-Sensoren) oder handelt es sich um die Physik von höherfrequentem Licht, oder handelt es sich um ein menschliches Sehvermögen?

Anschlussfrage: Warum sind Sensoren für blaues Licht weniger empfindlich?


1
Dies könnte Sie interessieren: micro.magnet.fsu.edu/primer/digitalimaging/concepts/… ( Kurz gesagt, die Antwort reagiert weniger empfindlich auf Blau). Zu viel Technik für Wochenendlesungen für mich. ;)
John Cavan

2
Ich finde es ironisch und ziemlich amüsant, dass Matts eigene Frage im Suchlink in seinem eigenen Beitrag an zweiter Stelle steht. ; D
jrista

@ jrista - ha ha, das ist lustig!
John Cavan

Ich denke, das bedeutet, dass die Seite funktioniert. :)
Mattdm

Die Antwort von @Tall Jeff unten ist ein guter Anfang (ebenso wie der kürzere Kommentar von @ coneslayer), aber ich glaube nicht, dass er die allgemeine Frage anspricht (jetzt oben erweitert). Ich habe eine Prämie hinzugefügt, in der Hoffnung, allgemeinere und verbindlichere Antworten zu erhalten. Vielen Dank.
Mattdm

Antworten:


13

Zusätzlich zu der von Tall Jeff diskutierten Sensorreaktion weist die meiste Szenenbeleuchtung (Sonnenlicht, Glühlampen) im Vergleich zu Grün und Rot einen Mangel an blauem Licht auf. Starten Sie diesen Java-Schwarzkörpersimulator und stellen Sie fest, dass Blau für die gewünschten Farbtemperaturen niedriger als Grün oder Rot ist (~ 5500 K Tageslicht, ~ 3000 K Glühlampe).

Es gibt einen weiteren kleinen Faktor, der das Problem verschärft. CCD- und CMOS-Arrays sind Photonenzähldetektoren. Die meisten Diagramme, einschließlich der im obigen Schwarzkörpersimulator, zeigen die spektrale Energiedichte , nicht die Anzahl der Photonen. Blaue Photonen sind durch das umgekehrte Verhältnis ihrer Wellenlängen energiereicher als rote Photonen. Bei gleichem Energiewert auf den Plots würden Sie also etwa 25% mehr rote Photonen als blaue Photonen erhalten. Und das ist der Ausgangspunkt für die Empfindlichkeitseffekte, die Tall Jeff beschreibt.


In Bezug auf CCDs und rückseitig beleuchtete Sensoren leiden vorderseitig beleuchtete CCDs unter der gleichen verringerten Blauempfindlichkeit, da ein Großteil des blauen Lichts absorbiert wird, während es durch die unempfindliche Gate-Struktur des Chips gelangt. Rückseitig beleuchtete Sensoren sehen eine verbesserte blaue Reaktion. Siehe diese typische spektrale Antwortkurve (für verschiedene Arten von CCDs mit Forschungsqualität).


1
Ganz zu schweigen davon, dass ein Großteil des Blaus durch die Atmosphäre gestreut wird, insbesondere in den besten Fotostunden (z. B. Sonnenaufgang und Sonnenuntergang).
Vor dem

32

Nach dem gegenwärtigen Stand der Technik ist das Rauschen im blauen Kanal eine Kombination von Kaskadeneffekten, die zusammenwirken, um das blaue "Aussehen" am schlechtesten zu machen. Erstens gibt es beim Bayer-Pattern-Setup doppelt so viele grüne Pixel wie rote oder blaue in der Matrix *. Dadurch werden Blau und Rot im Vergleich zum grünen Kanal sofort räumlich benachteiligt, und es entsteht ein viel größeres spektrales Rauschen für diese beiden Kanäle, wenn die RGB-Triplets aus benachbarten Sensorpixeln rekonstruiert werden. Ein 10-Millionen-Pixel-Sensor hat beispielsweise 5 Millionen grüne Quellpixel, 2,5 Millionen rote und 2,5 Millionen blaue. Wenn Sie diese Rohdaten in die endgültigen 10M-RGB-Triplets formen, ist klar, dass es nicht mehr als die Hälfte der Informationen für den roten oder blauen Kanal geben kann, und dies erscheint als eine Form von Rauschen im endgültigen Bild.

Der nächste Effekt betrifft die spektralen Empfindlichkeiten des Sensorsystems durch die Filter Rot, Grün und Blau. Als System reagieren moderne CMOS-Sensoren etwa 50% empfindlicher auf die grünen und roten Bereiche des Spektrums als auf die blauen Bereiche. Beispielsweise können wir für diesen CMOS-Sensor von Cypress auf Seite 3 sehen, dass die relativen Empfindlichkeiten bei Rot (75%), Grün (80%), Blau (50%) liegen, wenn Sie die Kurven für jede Wellenlänge mit den richtigen Wellenlängen indizieren Farbe. Diese mangelnde Empfindlichkeit in Kombination mit einem festen Sensor- und Abtastrauschen für alle Pixel über die Sensoren hinweg hat einen erheblichen Nachteil hinsichtlich des Signal-Rausch-Verhältnisses im Vergleich zu den beiden anderen Farben.

Dies bedeutet, dass CMOS-Farbsensoren die besten Ergebnisse bei der Wiedergabe von Grün erzielen, gefolgt von Rot und schließlich von Blau, das aus der Perspektive des Gesamtrauschens das schlechteste von drei ist.

Mit Blick auf die Zukunft ist zu beachten, dass diese Einschränkungen beim blauen Kanal in erster Linie eine Kosten- / Leistungsoptimierung sind. Das heißt, der Physik ist nichts inhärent, das eine Verschlechterung der Blau-Leistung erfordert, nur dass es bei aktuellen Gerätekonstruktionen VIEL teurer wäre, den Blau-Kanal merklich zu verbessern. Da das menschliche Auge auf der blau / gelben Farbachse nicht sehr empfindlich ist, sind die Lösungen bereits eine sehr gut optimierte Lösung. Ich bin mir sicher, dass die meisten Kamerahersteller es vorziehen würden, zuerst die Gesamtkosten zu senken, bevor sie die gleichen oder mehr bezahlen, nur um die Leistung des Blaukanalrauschens zu verbessern.

** Bayer hat die Matrix auf diese Weise eingerichtet, da das menschliche visuelle System den größten Teil seines Luminanzsignals (dh: Helligkeitsinformationen) aus dem grünen Teil des Farbspektrums erhält. Das heißt, die Stäbchen in den Augen sind am empfindlichsten für grünes Licht, wodurch der grüne Teil des Spektrums optisch am wichtigsten ist. *


3
Ja, mehr im Hintergrund: Die Hersteller gewichten ihre Chips auf diese Weise, weil sie sich der Farbempfindlichkeitsverteilung des menschlichen Auges annähern: Unsere Augen sind ungefähr 50% so empfindlich gegen Rot wie gegen Grün und ungefähr 20% so empfindlich gegen Blau. Aus diesem Grund werden die Konvertierungen von Farbe in Graustufen so gewichtet, wie sie normalerweise im Bereich von (0,2989 r + 0,5870 g + 0,1140 b) liegen.
Jon Purdy

Vermutlich zeigen Foveon-Sensoren dieses Verhalten nicht.
Marcin

@Marcin: warum nicht?
Mattdm

1
@Tall Jeff: Ich bin ein bisschen besorgt, dass diese Antwort, obwohl sie hoch bewertet wird, im direkten Widerspruch zu den anderen beiden steht. Das heißt, Sie sagen, dass der Physik nichts inhärent ist, was die Leistung von Blau verschlechtert, während die anderen sagen, dass es im Grunde genommen darauf ankommt. Welches ist richtig?
Mattdm

1
@Mattdm: Weil Foveon-Sensoren kein Mosaik verwenden und für alle drei Kanäle die gleiche Anzahl von Standorten haben.
Marcin

2

Weil menschliche Augen / Gehirne nicht so empfindlich auf Änderungen des blauen Lichts reagieren wie auf Änderungen des grünen / roten Lichts. Die modernen Kamerasensoren verhalten sich eher wie menschliche Augen und sind daher für Blau weniger empfindlich als für Grün / Rot. Da der Standard für die Anzeige von Neutral auf Farbmonitoren die gleichen Anteile an Blau, Grün und Rot ist und die Sensoren weniger empfindlich für Blau als für Rot und Grün sind, ist es zweckmäßig, den Blaukanal zu verstärken. Das Verstärken des Blaukanalsignals verstärkt auch das Blaukanalrauschen.

Die Kamera-Rauschunterdrückung wird nur angewendet, wenn Sie JPEG-Bilder aufnehmen. Da jedoch viele Leute RAW-Bilder aufnehmen, ist der blaue Kanal immer etwas verrauscht. Ich habe nach einer Lösung für dieses Problem gesucht. Man schlug vor, das Bild in Laborfarben umzuwandeln und nur den Luminanzkanal zu glätten / zu verwischen und dann wieder in RGB umzuwandeln, um Rauschen zu entfernen. Du kannst es versuchen.


Sie sagen also, dass moderne Kamerasensoren absichtlich weniger blauempfindlich sind, weil dies das menschliche Auge besser modelliert?
Mattdm

Es ist die Natur des blauen Lichts, die die Sensoren und das menschliche Auge weniger empfindlich macht. Um blaues Licht richtig wahrzunehmen, müssen Sie es verstärken, wodurch auch das Rauschen verstärkt wird.
fahad.hasan

Warum? Was ist es mit blauem Licht? Und wenn wir weniger empfindlich dafür sind, warum müssten Sie es dann stärker verstärken? (Im Gegensatz zu weniger empfindlichen Sensoren, die fast offensichtlich mehr Verstärkung erfordern.)
mattdm

Der Sensor ist eigentlich für Spitzenempfindlichkeit ausgelegt. Zum Vergleich ist die spektrale Empfindlichkeit am blauen Ende des Spektrums typischerweise um den Faktor 2 verringert. Die Verstärkung wird auf dem blauen Kanal erhöht, um den Mangel an Kurzwellenlängenempfindlichkeit auszugleichen, was bedeutet, dass das thermische Rauschen in diesem Kanal zusammen mit dem Signal ebenfalls verstärkt wird. Gleiches gilt, jedoch in weitaus geringerem Maße für den Rot- und Grünkanal.
fahad.hasan

1
In der Antwort von @Tall Jeff, die derzeit auf +20 gewählt wird, heißt es außerdem, dass "der Physik nichts innewohnt, was eine Verschlechterung der blauen Leistung erfordert", was im direkten Widerspruch dazu zu stehen scheint, was mich ein wenig verwirrt. Kannst du mir helfen, mich wieder zurecht zu bringen? Vielen Dank.
Mattdm

0

Wir haben eine Analyse der blau-grün-roten Kanäle eines DP3 Merrill im Digitalmodus (RAW) durchgeführt. Ich habe diese Kamera gerade im Juni 2018 gekauft. Der blaue Kanal weist einen pegelabhängigen Fehler im A / D-Wandler auf, der in den Rot-Grün-Kanälen nicht vorhanden ist. Dieser Fehler funktioniert wie erwartet. Es scheint, dass ein Fehler in der Verdrahtung des blauen Kanals a / d oder im Code vorliegt, der die a / d-Spannung in das digitale Signal des blauen Kanals umsetzt. Es ist KEINE Empfindlichkeitsfrage. Es könnte ein Sättigungsproblem sein, dh physikalische Spannungen überschreiten den A / D-Bereich bei sehr niedrigen Spannungen, dh zu viel Verstärkung in diesem Kanal. Die Kamera wurde auf ISO 100 eingestellt, um Daten zu erfassen, und Daten wurden über einen Bereich von Verschlusszeiten und Signalpegeln über einen Frame erfasst. Die Blaukanalmessungen waren bei den niedrigsten Signalpegeln nahezu korrekte Signale. Je höher das Signal, desto größer der Fehler. Dies ist ein Verstärkungs- / Digitalisierungsproblem im Algorithmus, der die X3F-Dateien erzeugt, oder möglicherweise ein Problem mit der Byte-Reihenfolge. Wir sehen uns die X3F-Dateien direkt an, um festzustellen, ob der Fehler bereits vorhanden ist, aber ich gehe davon aus, dass dies der Fall ist, da sowohl die vom Konverter erstellten TIFF- als auch die JPEG-Dateien dasselbe Problem haben. Ist es eine Frage, ob der Hersteller daran interessiert sein wird, dieses Problem zu beheben? Der Foveon-Chip ist eine gute Idee, die richtig konstruiert werden muss. Ist es eine Frage, ob der Hersteller daran interessiert sein wird, dieses Problem zu beheben? Der Foveon-Chip ist eine gute Idee, die richtig konstruiert werden muss. Ist es eine Frage, ob der Hersteller daran interessiert ist, dieses Problem zu beheben? Der Foveon-Chip ist eine gute Idee, die richtig konstruiert werden muss.


Dies ist eine Fortsetzung des obigen Kommentars. Wenn Sie die x3f-Datei direkt konvertieren und das Sigma-Konvertierungsprogramm vermeiden, stellen wir fest, dass die Daten in ALLEN Kanälen korrekt sind. Das Problem liegt in der Konvertierung des blauen Kanals nach tiff / jpg. Wir wollen sehen, was der Fehler ist, aber wahrscheinlich ein Byte-Tausch für diesen Zweig der Konvertierung. Tests wurden auf verschiedene Weise durchgeführt, und die Kameraausgabe ist angesichts der Empfindlichkeit und des mittleren Absorptionswegs für RGB-Photonen in der Kamera genau das, was man erwarten sollte.
cmitylliam

Hallo, welches Tool benutzt du? github.com/Kalpanika/x3f/releases ?
Biziclop
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.