Warum verwenden wir RGB anstelle von Wellenlängen, um Farben darzustellen?


47

Wie wir wissen, hängt die Farbe eines bestimmten Lichtstrahls von seiner Frequenz (oder Wellenlänge ) ab. Sind das nicht auch die Informationen, die zuerst von Digitalkameras erfasst werden? Warum verwenden wir dann Formate wie RGB (oder CMYK , HSV usw.), um Farben digital darzustellen?


23
Haben Sie jemals den Preis eines Spektrometers, das jede Wellenlänge des sichtbaren Lichts unabhängig messen kann, mit dem Preis eines Kolorimeters verglichen, das das Gesamtlicht misst, das durch drei verschiedene Farben gefiltert wird?
Michael C

6
Erwähnen, weil es in anderen Antworten nicht erwähnt wurde: Wir verwenden RGB nicht nur zur Darstellung von Farben in Computersystemen. Es ist das konventionellste, da es dem "nativen" Verhalten der meisten Erfassungs- und Bildgebungssysteme entspricht, aber es gibt zwei andere häufig verwendete Darstellungen: HSV und YUV. Es lohnt sich auch, sich die Details von CIE anzusehen: Vom Menschen wahrgenommene Farbe und Spektralfarbe sind nicht dasselbe!
pjc50

4
@ pjc50 Das sind gute Informationen, die beantwortet werden sollten. Klingt so, als hättest du eine Antwort, die nur darum bittet erstellt zu werden. Möchtest du es schaffen?
Scottbb

19
Ihre Frage scheint zu implizieren, dass jede Farbe durch eine einzige Frequenz / Wellenlänge beschrieben werden kann. Dies ist jedoch nicht der Fall: Alle Grautöne (einschließlich Weiß) und viele Farben wie Pink oder Braun können nicht mit einer einzigen Frequenz beschrieben werden, sondern sind notwendigerweise eine Kombination aus mehreren.
jcaron

14
Es wäre also eine Menge von Tupeln (Wellenlänge, Intensität). Da wir armen Menschen nur drei dieser Wellenlängen "sehen" (grobe Annäherung), können wir dann die Menge herausfiltern, die nur auf übereinstimmende Wellenlängen eingestellt ist. Oh, verdammt, wir haben drei Tupel (rot, Intensität), (grün, Intensität), (blau, Intensität). Allgemein bekannt als RGB :-)
jcaron

Antworten:


11

Ich denke, es gibt einige Missverständnisse in früheren Antworten, deshalb ist das, was ich denke, wahr. Literaturhinweis: Noboru Ohta und Alan R. Robertson, Colorimetry: Fundamentals and Applications (2005).

Eine Lichtquelle muss keine einzige Frequenz haben. Reflektiertes Licht, was das meiste ist, was wir auf der Welt sehen, muss keine einzige Frequenz haben. Stattdessen hat es ein Energiespektrum, dh seinen Energiegehalt als Funktion der Frequenz. Das Spektrum kann mit Instrumenten gemessen werden, die als Spektralphotometer bezeichnet werden.

Wie im neunzehnten Jahrhundert entdeckt wurde, sehen Menschen viele verschiedene Spektren mit der gleichen Farbe. Es werden Experimente durchgeführt, bei denen mit Hilfe von Lampen und Filtern Licht zweier verschiedener Spektren erzeugt wird und die Personen gefragt werden, ob diese die gleiche Farbe haben. Mit solchen Experimenten kann man nachweisen, dass die Menschen das Spektrum nicht sehen, sondern nur seine Integrale mit bestimmten Gewichtungsfunktionen.

Digitalkameras erfassen die Reaktion auf Licht von Photodiodensätzen, die mit verschiedenen Filtern abgedeckt sind, und nicht das volle Spektrum, das Sie mit einem Spektrophotometer sehen würden. Es werden drei oder vier verschiedene Filtertypen verwendet. Das Ergebnis wird in einer Rohdatei gespeichert, die von der Kamera ausgegeben wird, obwohl viele Leute vermuten, dass Rohdateien von den Kameraherstellern mehr oder weniger "gekocht" werden (Kamerasensoren sind natürlich streng geschützt). Die physiologischen Reaktionen können durch Anwenden einer Matrixtransformation auf die Rohdaten angenähert werden.

Der Einfachheit halber eher als Annäherungen an die physiologischen Reaktionen, andere Arten von Tripel von Zahlen verwendet werden , um Namen Farben verwendet, zum Beispiel Lab, in beschrieben https://en.wikipedia.org/wiki/Lab_color_space (Achtung , Warnung auf der Seite). Man muss Dreiergruppen unterscheiden, die die gesamte Bandbreite der geschätzten physiologischen Reaktionen von anderen ausdrücken können, wie beispielsweise RGB, die dies nicht können. Letztere werden verwendet, weil sie die Farben ausdrücken, die Computerbildschirme anzeigen können. Sie sind das Ergebnis von Konvertierungen von Tripeln wie Lab oder von Rohdaten. CMYK ist für Drucker.


Richtige und prägnante Antwort! Eine Lichtquelle muss keine einzige Frequenz haben.
Karan Karan

1
Auch könnte nicht jeder Farbton mit einer einzigen Wellenlängenlichtquelle reproduziert werden! Schicken Sie Ihre Auszubildenden in ein Elektronikgeschäft, um bei nächster Gelegenheit eine braune LED zu erhalten :) Und eine billige abstimmbare Lichtquelle, um auch Ihr wellenlängenkodiertes Bild zu reproduzieren :)
rackandboneman

RGB ist kein singulärer Begriff, der die gesamte Farbpalette beschreiben könnte oder könnte. sRGB ist der Defacto-Standard und kann nicht alle vom Menschen wahrnehmbaren Tristimulus-Werte beschreiben - Farben -, aber scRGB ist eine triviale Erweiterung von sRGB, die den gesamten Satz abdeckt, indem negative Werte für die drei Primärfarben zugelassen werden. # ffff00 ist keine reine Farbe, aber Sie können eine davon abziehen, indem Sie Blau davon abziehen.
John Dvorak

@rack Wenn wir die "billige" Anforderung fallen lassen, könnte ein elektrisch gesteuerter Dünnfilm in der Lage sein, den Trick auszuführen . Ich glaube nicht, dass die Technologie noch existiert, aber ich würde es gerne sehen.
John Dvorak

sRGB ist ein viel kleinerer Farbraum als dies durch RGB-Werte ohne die definierten Grenzen von sRGB ausgedrückt werden kann. Andere Farbräume sind ebenfalls Formen von RGB, können jedoch einen viel größeren Farbraum ausdrücken, da die definierten Grenzen (was die Minimal- und Maximalwerte für jeden Kanal bedeuten) größer sind.
Michael C

45

Das Ziel des Imaging Engineers war es schon immer, mit der Kamera ein originalgetreues Bild der Außenwelt aufzunehmen und dieses Bild so darzustellen, dass der Betrachter ein naturgetreues Bild sieht. Dieses Ziel wurde nie erreicht. Tatsächlich sind die besten Bilder, die heute gemacht werden, schwach. Wenn dieses Ziel erreicht werden soll, benötigen Sie eine Sonnenbrille, um das Bild einer sonnenbeschienenen Aussicht bequem betrachten zu können.

Sie fragen sich, warum Kameras nicht die gesamte Strahlungsenergie erfassen, die die visuelle Reaktion des Menschen erzeugt hat. Warum erfasst die moderne Kamera nur drei schmale Segmente, die wir als primäre Lichtfarben bezeichnen: Rot, Grün und Blau?

Die Antwort fällt in die Kategorie, wie wir sehen, nämlich die menschliche visuelle Antwort. Im Laufe der Jahre wurden viele Theorien darüber aufgestellt, wie Menschen Farbe sehen. Bisher ist es allen nicht gelungen, jeden Aspekt unserer Farbwahrnehmung zufriedenstellend zu erklären. Die Wellenlängen, für die unsere Augen empfindlich sind, decken den Bereich von 400 bis 700 Millimikron ab. Es ist kein Zufall, dass die Erdatmosphäre für diesen Bereich transparent ist.

Wenn wir auf eine Lichtquelle starren, können wir keine bestimmte Wellenlänge unterscheiden, es sei denn, sie wird alleine dargestellt. Wenn wir eine weiße Lichtquelle betrachten, können wir keine bestimmte Farbe isolieren und identifizieren. Unsere Augen-Hirn-Kombination interpretiert die Farbe des Lichts, ohne zu analysieren, woraus der Frequenzmix besteht. Ausgehend davon haben Wissenschaftler experimentell bewiesen, dass durch Mischen von nur drei Farben in unterschiedlichen Anteilen nahezu alle Farben erzeugt werden können. Mit anderen Worten, wenn dem menschlichen Auge in unterschiedlichen Intensitäten eine Mischung aus Rot, Grün und Blau präsentiert wird, können die meisten Spektralfarben nicht exakt, sondern in enger Annäherung reproduziert werden. Dies war das Werk von Thomas Young (britisch 1773 - 1829) mit dem Titel Young Theory of Colour Vision.

Aufbauend auf Youngs Theorie zeigte James Clerk Maxwell (britisch 1831 - 1879) der Welt die erste Farbfotografie, die produziert wurde. 1855 verwendete er drei Projektoren und überlagerte die drei auf eine Leinwand projizierten Bilder. Jeder Projektor war mit einem Farbfilter ausgestattet. Die drei Bilder waren jeweils eine der drei hellen Grundfarben, nämlich Rot, Grün und Blau. Die projizierten Filmbilder wurden durch Aufnehmen von drei separaten Bildern auf drei Schwarzweißfilmen hergestellt, die jeweils durch einen Filter der drei Lichtpremieren belichtet wurden.

Seit diesem Tag im Jahr 1855 wurden unzählige Methoden zur Erstellung und Anzeige von Farbbildern erforscht. Frühe Farbfilme projizierten schwache Farbbilder mit nur zwei Farben. Der Gründer der Polaroid Corp., Edwin Land (Amerikaner 1909 - 1991), experimentierte mit der Herstellung von Farbbildern unter Verwendung von nur zwei Grundfarben. Dies ist eine Neugier des Labors geblieben. Bisher werden die originalgetreuesten Farbbilder mit den drei Farbprimären erstellt. Ein Mann, Gabbriel Lippmann (französisch 1845 - 1921), machte jedoch wunderschöne Farbbilder, die das gesamte visuelle Lichtspektrum einfingen. Er entwickelte eine Methode, bei der ein Schwarzweißfilm mit einem Spiegelträger verwendet wurde. Das belichtete Licht drang in den Film ein, traf auf den Spiegel und wurde zurück in den Film reflektiert. Die Belichtung erfolgte also über zwei Durchgänge des Belichtungslichts. Das Bild bestand aus Silber, das mit einem Abstand angeordnet war, der der Wellenlänge des Belichtungslichts entsprach. Beim Betrachten ließ der Film nur Licht durch, das den Wellenlängen des belichteten Lichts entsprach. Man konnte ein Vollfarbenbild sehen, das keinen Pigmentfarbstoff enthielt. Einzigartig und schön, das Lippmann-Verfahren bleibt unpraktisch. Unsere Film- und Digitalkameras greifen auf die Methode von Maxwell zurück. Wenn Sie sich mit menschlichem Sehen und Farbtheorie befassen, sind Sie vielleicht derjenige, der unsere Wissenschaft voranbringt und das erste wirklich treue Bild erhält. Unsere Film- und Digitalkameras greifen auf die Methode von Maxwell zurück. Wenn Sie sich mit menschlichem Sehen und Farbtheorie befassen, sind Sie vielleicht derjenige, der unsere Wissenschaft voranbringt und das erste wirklich treue Bild erhält. Unsere Film- und Digitalkameras greifen auf die Methode von Maxwell zurück. Wenn Sie sich mit menschlichem Sehen und Farbtheorie befassen, sind Sie vielleicht derjenige, der unsere Wissenschaft voranbringt und das erste wirklich treue Bild erhält.


5
R, G, B-Systeme sind keine drei engen oder spezifischen Farben, sie stellen jeweils einen relativ breiten Spektralbereich dar und ihre relativen Anteile ermöglichen eine additive Farbmischung.
Brandon Dube

5
@ BlueRaja - Danny Pflughoeft - Die medizinische Wissenschaft hat soeben kleine Gruppen von Menschen mit vier Kegelzellen identifiziert. Farbbilder können durch spezialisiertes schnelles Blinken des Bildes auf einem Schwarzweißfernsehgerät visualisiert werden. Farbenblinde Menschen können mit einer Brille mit speziellen Farben wieder Farbe sehen. Die Wissenschaft schreitet Tag für Tag voran.
Alan Marcus

3
@AlanMarcus sogar der grüne Filter hat eine Bandbreite von 125nm, wenn wir sichtbar definieren, um 400-700 zu sein, einschließlich eines Drittels des Spektrums für Ihre "enge, spezifische Farbe" ist nicht korrekt. Ein Drittel der freien Reichweite ist keine eng definierte, spezifische Farbe.
Brandon Dube

6
@BrandonDube: Das hängt davon ab, ob Sie ein Bild aufnehmen oder anzeigen. Wenn Sie ein Bild aufnehmen, muss jede R-, G-, B-Komponente einen weiten Bereich haben, um die menschliche Wahrnehmung widerzuspiegeln. Bei der Anzeige eines Bildes ist es besser, dass jede Komponente einen engen Bereich aufweist, um einen breiteren Farbumfang zu erzielen.
Dietrich Epp

2
"Einzigartig und schön, das Lippmann-Verfahren bleibt unpraktisch." - Erkläre warum. Oder liegt es nur daran, dass Silber teuer ist?
Aroth

35

Du sagtest,

Dies sind die Informationen, die zuerst von Digitalkameras erfasst werden.

Das ist nicht richtig. Die Sensoren der meisten Digitalkameras sprechen für sich genommen auf ein breites Spektrum von Lichtfrequenzen an, die über das vom Menschen wahrnehmbare Infrarot- und Ultraviolettspektrum hinausgehen. Da Sensoren ein so breites Lichtspektrum erfassen, sind sie fürchterliche Diskriminatoren von Lichtwellenlängen. Das heißt, grob gesagt, digitale Sensoren werden in Schwarzweiß angezeigt .

Bei den meisten Kamerasensoren¹ werden zur Erfassung von Farben Farbfilter vor dem Sensor platziert, die als Farbfilterarray ( Color Filter Array, CFA) bezeichnet werden. Der CFA schaltet jede Sensorpixel (manchmal genannt Sensel in a) in erster Linie roten, grünen oder blauen Lichtsensor. Wenn Sie die rohen Sensordaten als Schwarzweißbild anzeigen würden, würde das Bild gedithert aussehen, ähnlich einem halbtonigen Schwarzweiß-Zeitungsdruckbild. Bei starker Vergrößerung würden die einzelnen Pixel des Bildes schachbrettartig aussehen.

Wenn Sie die einzelnen Quadrate der Rohbilddaten entsprechend als rot, grün oder blau interpretieren , sehen Sie eine farblich geditherte Version des Bildes, ähnlich einem farblich getönten Zeitungspapierartikel.

Bayer-Farbfilterarray, aus Wikimedia Commons
Bayer-Farbfilter-Array, von Benutzer Cburnett , Wikimedia Commons. CC BY-SA 3.0

Durch einen Prozess namens Demosaicing, entweder beim Speichern der Bilddaten in der Kamera oder bei der Nachbearbeitung auf einem Computer, wird das Array von Farbdaten rechnerisch kombiniert, um ein RGB-Farbbild mit voller Auflösung zu erstellen. Beim Demosaikieren wird der RGB-Wert jedes Pixels durch einen Algorithmus berechnet, der nicht nur den Wert des Pixels berücksichtigt, sondern auch die Daten in benachbarten Pixeln, die es umgeben.

Warum verwenden wir dann das RGB-Format, um Farben digital darzustellen?

Wir verwenden ein trichromes Farbmodell, weil Menschen Farben so wahrnehmen. Aus Wikipedia'a Trichromacy-Artikel ,

Die trichromatische Farbtheorie begann im 18. Jahrhundert, als Thomas Young vorschlug, dass das Farbsehen ein Ergebnis von drei verschiedenen Photorezeptorzellen sei. Hermann von Helmholtz erweiterte später die Ideen von Young mithilfe von Farbabstimmungsexperimenten, die zeigten, dass Menschen mit normalem Sehvermögen drei Wellenlängen benötigten, um den normalen Farbbereich zu erzeugen.

Auf diese Weise bauen wir Kameras, die das, was wir sehen können, auf eine ähnliche Weise wie das, was wir sehen, einfangen . Beispielsweise ist es für eine typische Fotografie, die das, was wir sehen, erfassen und reproduzieren soll, wenig sinnvoll, auch Infrarot- und Ultraviolettwellenlängen zu erfassen.


  1. Nicht alle Sensoren verwenden einen CFA. Der Foveon X3- Sensor, der von Sigma-DSLRs und spiegellosen Kameras verwendet wird, beruht auf der Tatsache, dass unterschiedliche Wellenlängen des Lichts Silizium in unterschiedlichen Tiefen durchdringen. Jedes Pixel auf dem X3-Sensor besteht aus einem Stapel rot-, grün- und blauerkennender Fotodioden. Da es sich bei jedem Pixel um einen RGB-Sensor handelt, ist für Foveon-Sensoren keine Demosaikierung erforderlich.

    Die Leica M Monochrom ist eine teure Schwarzweißkamera ohne CFA-Sensor. Da das einfallende Licht nicht gefiltert wird, ist die Kamera lichtempfindlicher (laut Leica 100% oder 1 Blende, empfindlicher).


12

Der Grund, warum Kameras und Displays in RGB arbeiten, ist, dass unsere Netzhäute auf diese Weise funktionieren .

Da unsere Augen Farben mit diesen Komponenten (RGB) codieren, ist es ein sehr bequemes System (obwohl sicherlich nicht das einzige), nicht nur reine Wellenlängen zu codieren (die eine mehr oder weniger deterministische Kombination der Netzhautreaktion für jede chromatische Komponente bilden). aber auch mischfarben.

Das Grundprinzip wäre: "Wenn eine Farbkombination nur als Kombination von drei Komponenten an das Gehirn abgegeben werden kann, kann ich das visuelle System betrügen, indem ich nur eine bestimmte Kombination dieser isolierten, reinen Komponenten (über RGB-Anzeige) präsentiere und das Visuelle zulasse System dekodieren sie, als ob sie die reale Sache waren.

Es ist interessant festzustellen, dass die meisten Farbsysteme, da es sich um Trichromaten handelt, dreidimensionaler Natur sind (Lab, HSV, YCbCr, YUV usw.), und zwar nicht aufgrund der physikalischen Eigenschaften der Farbe , sondern aufgrund der Art und Weise Unser visuelles System funktioniert.


Willkommen bei Photo.SE. Gute Antwort!
Scottbb

12

Ein Versuch, einfach zu antworten:

  • Wir können praktisch nicht genug Informationen erfassen, um eine vollständige Aufschlüsselung aller vorhandenen Wellenlängen des Lichts, Frequenz für Frequenz, zu speichern, selbst nur innerhalb des sichtbaren Spektrums. Mit RGB können wir die Farbe eines Pixels mit nur drei Zahlen beschreiben. Wenn wir das gesamte Frequenzspektrum des Lichts erfassen würden, würde jedes einzelne Pixel nicht drei Zahlen erfordern, sondern einen Datengraphen. Die Datenübertragung und -speicherung wäre immens.

  • Es ist nicht notwendig für unsere Augen. Unsere Augen sehen nicht nur drei einzelne Wellenlängen, sondern jeder unserer "roten", "grünen" und "blauen" Rezeptoren erfasst teilweise überlappende Lichtbereiche:

    Die Überlappung ermöglicht es unserem Gehirn, die relativen Stärken der Signale als unterschiedliche Farben zwischen den Primärfarben zu interpretieren. Unser Sichtsystem ist also bereits ziemlich gut darin, eine tatsächliche Wellenlänge zu approximieren, wenn nur die relative Signalstärke der drei Primärfarben angegeben wird. Ein RGB-Farbmodell reproduziert den gleichen Informationsstand angemessen.


3
+1 Aber du könntest ein bisschen adäquat betonen. Ich meine, mit einem tricromatic-System bekommt man viele Farben, aber keineswegs alle möglichen Farben. Es ist auch erwähnenswert, dass Kameras mit mehr Wellenlängenbändern existieren und die von ihnen erzeugten Bilddateien riesig sind. Tatsächlich haben wir das Glück, dass tricromatic stimulus funktioniert, wenn es nicht so wäre, dass wir uns in orobkems mit media storage befinden
könnten

Wenn die Reaktion der drei Sensorprimären mit der Reaktionstabelle der Farbrezeptoren in unseren Augen übereinstimmen würde, würde sie theoretisch dennoch eine Genauigkeit in Bezug auf die Reproduktion von allem erreichen, was wir sehen können.
thomasrutter

Nein, die Kurven überlappen sich so, dass bestimmte Kombinationen der Wellenlängenverteilung ein eindeutiges Signal aussenden. Das kann mit nichts anderem als dieser exakten Kombination reproduziert werden. Ein Tristimulus-Eingang wird Ihnen also leider nie den gesamten Sichtbereich des Menschen verschaffen.
Joojaa

"Das kann man nicht mit etwas anderem als dieser exakten Kombination reproduzieren." - das habe ich so gemeint, theoretisch wäre es 1: 1, wenn Ihre Sensorprimären mit genau den gleichen Kurven empfindlich wären. Sagen Sie, wenn Sie eine menschliche Netzhaut haben, diese in eine Kamera stecken und die Signale aus der Netzhaut erfassen.
Thomasrutter

2
@ChrisBecke fand hier eine Erklärung: "Das Erythropsin in den rotempfindlichen Zapfen ist für zwei Wellenlängenbereiche empfindlich. Der Hauptbereich liegt zwischen 500 nm und 760 nm und erreicht einen Peak bei 600 nm. Dazu gehören Grün, Gelb, Orange und Rot Licht. Der Nebenbereich liegt zwischen 380 nm und 450 nm und erreicht einen Peak bei 420 nm. Dies schließt Violett und etwas Blau ein. Der Nebenbereich bewirkt, dass die Farbtöne einen Kreis anstelle einer geraden Linie bilden. Quelle: midimagic.sgc-hosting.com/huvision.htm
thomasrutter

8

Es gibt zwei wechselwirkende Gründe.

Grund (1) ist, dass das Auge (normalerweise) mehrere Lichtwellenlängen von einem bestimmten Punkt empfängt [sozusagen]. Weißes Licht zum Beispiel ist eigentlich (in der Regel) eine Mischung aus vielen verschiedenen Wellenlängen; Es gibt keine "weiße" Wellenlänge. In ähnlicher Weise ist Magenta (heutzutage oft als "pink" bezeichnet (via "hot pink")) eine Mischung aus Rot und Blau, jedoch ohne Grün (was dazu führen würde, dass es weiß erscheint). Ähnlich könnte etwas, das grün erscheint, Kalk und einige Cyan-Komponenten enthalten.

Grund (2) ist also, dass RGB so funktioniert wie das menschliche Auge - es hat rote, grüne und blaue Sensoren.

Kombiniert man also (1) und (2): Damit das menschliche Gehirn die Lichtsignale so interpretiert, wie es die ursprünglichen Signale interpretieren würde, müssen sie in ihren Begriffen codiert werden.

Wenn zum Beispiel (umgekehrt) das Original weißes Licht wäre (was eine Person als solches wahrnehmen würde), es aber beispielsweise mit violetten und roten Sensoren codiert würde - nur die beiden -, würde die Reproduktion für das menschliche Auge als Magenta erscheinen. Ähnlich, aber subtiler oder feiner ... weißes Licht, das eine Mischung aus einer ganzen Reihe von Farben darstellt ... wenn dies beispielsweise mit violetten, gelben und roten Sensoren codiert würde ... würde diese Reproduktion für das menschliche Auge nicht als reines Weiß erscheinen - als (beiläufig) ein gelblich-cremefarbenes. Umgekehrt würde es einem imaginären Alien (und möglicherweise einem echten Tier) mit denselben Sensoren (nämlich violett, gelb und rot) im Auge als ein reines Weiß erscheinen.

Aus dem gleichen Grund… wenn das Original weiß wäre - das heißt eine Mischung aus einer ganzen Reihe von Farben - dann würde ein menschliches Auge, das dies wahrnimmt, dies nur in Bezug auf Rot, Grün und Blau kodieren… und eine Reproduktion, die nur Rot, Grün verwendet und Blau (in den gleichen Anteilen) würde der menschlichen Wahrnehmung als reines Weiß erscheinen - der Punkt ist, dass Informationen in beiden Fällen verloren gehen, aber das Endergebnis perfekt erscheint, weil die Verluste übereinstimmen. Leider werden sie entsprechen genau nur dann , wenn die Sensoren [RGB] in der Kamera Empfindlichkeit haben Kurven genau die gleichen wie die Sensoren [RGB] im menschlichen Auge [Hinweis darauf , dass jeder Sensor durch eine Reihe von Farben aktiviert ist] - wenn zum Beispiel In beiden Fällen aktivierte eine Kalkfarbe jeden der roten, grünen und blauen Sensoren um genau die gleiche Menge.


Ich glaube, dass eine Mischung von Licht, die jede Wellenlänge repräsentiert - sagen wir in Nanometer-Schritten - innerhalb des Bereichs der meisten menschlichen Empfindlichkeit aufgrund der größeren integralen Summierung unter den Kurven in der Nähe eine stärkere Reaktion zwischen Rot und Grün hat als zwischen Blau und Grün die gelben Wellenlängen als in der Nähe der Cyan-Wellenlängen: es würde gelblich erscheinen.
can-ned_food

@ can-ned_food Sie vergessen, dass unser Gehirn diese Signale von den Zapfen in unserer Netzhaut basierend darauf interpretiert, was es erwartet . Auf diese Weise können wir feststellen, dass ein weißes Objekt sowohl im Vollspektrum des Sonnenlichts bei 5500 K als auch im Vollspektrum des Lichts bei 2700 K weiß ist (jedoch nicht so breit wie das Licht einer Wolframlampe). Nur wenn ein wesentlicher Teil des Spektrums fehlt, haben wir Probleme, ein hellblaues Hemd von einem weißen Hemd zu unterscheiden (in einem solchen Fall, weil kein rotes oder grünes Licht vorhanden ist).
Michael C

@MichaelClark Hmm. Nun, selbst wenn unsere Vision das Profil der Schwarzkörperreflexion von einem perfekt weißen Objekt erkennt (und nicht nur scheinbar weiß für ein gegebenes Einfallsspektrum) und dieses Objekt somit immer als weiß wahrnimmt, dann würde ein solches hypothetisches "egalitäres" Spektrum sich vom erwarteten Schwarzkörperprofil unterscheiden, nicht wahr?
can-ned_food

@ can-ned_food Bei sehr begrenztem Lichtspektrum kann die Reaktion der Zapfen in unserer Netzhaut bei Betrachtung mit vollerem Lichtspektrum für zwei verschiedene Objekte mit unterschiedlichen "Farben" identisch sein. Dies ist das Problem bei eingeschränktem Lichtspektrum. Um „Weiß“ wahrzunehmen, das keine „Farbe“, sondern eine Kombination aller Farben ist, muss das Lichtspektrum breit genug sein, um in allen drei Größen der Zapfen in unserer Netzhaut eine Reaktion zu erzeugen. Nur wenn dies der Fall ist, kann unser Gehirn und nicht unsere Augen das Objekt als „weiß“ interpretieren.
Michael C

@MichaelClark Ja - oder fast genauso, wie eine Oberfläche als dunkler wahrgenommen werden könnte als die andere. Wie auch immer, ich bin mir noch nicht sicher, ob ich Ihren ersten Kommentar verstanden habe. Ich muss das untersuchen.
can-ned_food

4

tl; dr: Es ist viel einfacher, Licht auf drei breiten Teilen der Spektren zu erfassen, als die Frequenz genau zu analysieren. Der einfachere Detektor bedeutet auch, dass er kleiner sein kann. Und drittens: Der RGB-Farbraum ahmt die Prinzipien der Bedienung des menschlichen Auges nach.


Wie Max Planck nachweist, sendet jeder heiße Körper Strahlung mit verschiedenen Frequenzen aus. Er schlug vor und bewies, dass die Energie in Stößen, so genannten Photonen, ausgestrahlt wird, und zwar nicht kontinuierlich wie vorher angenommen. Und von diesem Tag an war die Physik nie mehr dieselbe. Die einzige Ausnahme ist der ideale LASER / MASER, der Strahlung mit nur einer Frequenz aussendet und Entladungen (Neonstäbe, ...) Strahlung mit mehreren isolierten Frequenzen aussendet.

Die Verteilung der Intensitäten über die Frequenzen nennt man Spektrum. Ähnlich haben die Detektoren auch ihre Spektren, in diesem Fall ist es die Verteilung der Reaktion des Detektors auf eine Strahlung normalisierter Intensität.

Wie bereits erwähnt, ist das weiße Licht weiß, da unsere Augen evolutionär kalibriert sind, um das Sonnenlicht, das von fernem Infrarot bis ultraviolett reicht, als weiß zu erkennen. Blätter sind zum Beispiel grün, weil sie alle Frequenzen absorbieren, mit Ausnahme des Teils, den wir als grün sehen.

Natürlich gibt es Detektoren, die die Spektren erfassen und die Informationen extrahieren können. Sie werden in der optischen Emissionsspektroskopie sowie in Röntgenbeugungs- und Fluoreszenztechniken eingesetzt, bei denen die chemische Zusammensetzung oder Mikrostruktur anhand der Spektren bewertet wird. Für eine Fotografie ist es übertrieben; mit Ausnahme der Astrofotografie, bei der wir die "chemische" Zusammensetzung bewerten wollen, die Bilder jedoch in gefälschte Farben "übersetzt" werden. Diese Detektoren sind genau und groß oder klein, aber ungenau, und Sie benötigen viel mehr Rechenleistung, um sie zu analysieren.

Das menschliche Auge oder irgendein anderes Auge ist nicht der Fall. Wir sehen nicht die chemische Zusammensetzung oder die Bindungszustände des Objekts. Im Auge gibt es vier verschiedene "Detektoren":

  • farblos: Diese sind am empfindlichsten und funktionieren für alle sichtbaren Frequenzen. Ohne sie würde man in der Nacht nichts sehen.
  • Rottöne: Diese sind im Niederfrequenzbereich am empfindlichsten. Deshalb leuchten heiße Dinge zuerst rot.
  • Grüns: Diese sind in höherfrequenten Regionen am empfindlichsten. Deshalb verfärben sich die heißen Sachen von rot nach gelb, wenn sie weiter erhitzt werden.
  • Blues: Diese sind im Hochfrequenzbereich am empfindlichsten. Deshalb leuchten die erhitzten Dinge weiß, wenn sie viel mehr erhitzt werden. Wenn Sie sie mehr und mehr erhitzen könnten, würden sie hellblau leuchten.

Wenn wir uns Regenbogen, CD oder DVD ansehen, werden wir Farben sehen, die sich von rot zu violett ändern. Die Lichtstrahlen für einen bestimmten Teil des Regenbogens haben meist eine perticullare Frequenz. Die Infrarotstrahlen sind für unsere Augen unsichtbar und erregen keine Zelle in der Netzhaut. Wenn Sie die Frequenz erhöhen, werden nur die roten "Zellen" angeregt und die Farbe wird als rot angezeigt. Mit zunehmender Frequenz erregen die Strahlen meistens "rote Zellen" und das kleine bisschen "Grün" und die Farbe wird als orange gesehen. Gelbe Strahlen erregen die "Grünen" etwas mehr ...

Die Sensoren in Kameras, CCD oder CMOS, werden von Lichtstrahlen jeder Frequenz angeregt, um ein Bild aufzunehmen, das unsere Augen als Farbe sehen, die wir nur dem menschlichen Auge nachahmen - wir verwenden zum Beispiel Bayes-Filter. Es besteht aus drei Farbfiltern mit Transmissionsspektren, die den Zelltypen unserer Netzhaut absichtlich ähnlich sind.

Das von einem von der Sonne beleuchteten gelben Papier reflektierte Licht verlässt die "Rottöne" vollständig (100%), die "Grüntöne" ebenfalls vollständig (100%) und leicht den "Blau" (5%), sodass Sie ihn gelb sehen. Wenn Sie ein Bild davon machen, wird die Erregung von der Kamera erfasst. Wenn Sie das Bild auf dem Bildschirm betrachten, sendet der Bildschirm innerhalb kürzester Zeit 100 rote, 100 grüne und 5 blaue Photonen auf Sie zu. Die Erregungswerte Ihrer Netzhaut ähneln der Erregung, die durch direkte Beobachtung verursacht wird, und Sie sehen ein Foto von gelbem Papier.

Es gibt ein weiteres Problem, das gelöst werden muss, wenn die Farben reproduziert werden sollen. Bei Verwendung des RGB-Farbraums werden nur drei Arten von Lichtquellen pro Pixel benötigt. Wir können drei Farbfilter haben (LCDs funktionieren so), wir können drei Arten von LEDs haben (LED- und OLED-Panels verwenden das), wir können drei Arten von Luminophoren haben (CRT verwendet dies). Wenn Sie die Farbe vollständig reproduzieren möchten, benötigen Sie unendlich viele Filter / Quellen pro Pixel. Wenn Sie die Informationen Farbe-zu-Frequenz vereinfachen möchten, hilft es auch nicht.

Sie können auch versuchen, die Farbe anhand ihrer Temperatur zu reproduzieren. Ich nehme an, Sie können nur Rot-Orange-Gelb-Weiß-Farben reproduzieren und müssen jedes Pixel auf Temperaturen um 3000 K erwärmen.

Und in all diesen theoretischen Fällen werden Ihre Augen die tatsächlich wahre Farbe in ihre RGB-Signale umwandeln und an Ihr Gehirn weitergeben.

Ein weiteres zu lösendes Problem ist die Speicherung der Daten. Das herkömmliche 18-MPx-RGB-Bild besteht aus drei Matrizen mit 5184 x 3456 Zellen, wobei jeder Punkt eine 8-Bit-Größe aufweist. Das bedeutet 51 MiB unkomprimierte Datei pro Bild. Wenn wir die gesamten Spektren für jedes Pixel speichern möchten, beispielsweise in 8-Bit-Auflösung, beträgt die Übermatrix 5184 x 3456 x 256, was zu einer unkomprimierten 4-GiB-Datei führt. Das bedeutet, dass Intensitäten von 256 verschiedenen Frequenzen im Bereich von 430–770 THz gespeichert werden, was einer Auflösung von 1,3 THz pro Kanal entspricht.

Total nicht die Mühe wert, wenn ich sagen darf ...


2
Sie können auch nicht alle Farben mit Temperatur produzieren, da ein guter Teil des menschlichen sichtbaren Raums im Regenbogen nicht vorhanden ist;)
Joojaa

@scottbb Vielen Dank für die Korrekturm Ja, ich habe Bits für Bytes verwechselt und vergessen, durch 8 zu teilen.
Crowley

2

Die kurze Antwort: Da die Wellenlänge ein einzelner Wert ist und der gesamte Farbbereich, den wir wahrnehmen können, nicht durch einen einzelnen Wert darstellbar ist, können nur die Abmessungen eines rechteckigen Körpers durch eine einzelne Messung dargestellt werden.

Um die Analogie fortzusetzen: Sie können das Volumen des Volumens angeben, aber es gibt viele verschiedene Volumenkörper mit demselben Volumen.

RGB, CMY, HLS usw. verwenden alle drei "Dimensionen", da dies nun viele sind, die Sie benötigen, um Farben, wie sie von Menschen gesehen werden, angemessen zu beschreiben.

Die Wellenlänge entspricht im HLS-System dem Farbton, kann jedoch weder Helligkeit noch Sättigung anzeigen.

Zu "Ist das nicht auch ([Wellenlänge]) die Information, die zuerst von Digitalkameras erfasst wird?" Nein, das ist es nicht.

Wie andere angemerkt haben, erfassen Digicams relative Intensitäten von Rot, Grün und Blau. (Einige haben mindestens eine zusätzliche Farbe verwendet, um eine bessere Unterscheidung im kritischen Rot-Grün-Bereich zu erzielen.) Eine direkte Messung der Frequenz des einfallenden Lichts wäre weitaus schwieriger. Wir haben einfach keine billigen Sensoren, die das können, schon gar keine, die wir in einem Raster von mehreren Millionen von ihnen herstellen können. Und wir brauchen immer noch eine Möglichkeit für die Kamera, um Helligkeit und Sättigung zu messen.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.