Gibt es gängige Materialien, die RGB nicht gut repräsentiert?


34

In Grafiken verwenden wir RGB und andere Farbräume als Annäherung an das gesamte Spektrum der Lichtwellenlängen. Dies funktioniert offensichtlich im Allgemeinen recht gut, aber es gibt auch Objekte / Materialien / Phänomene, denen Sie in Ihrem Alltag begegnen könnten, deren Erscheinungsbild durch RGB-Rendering aufgrund eines komplexen Emissions- / Reflexions- / Absorptionsspektrums nicht gut dargestellt wird ?

Während sich die aktuellen Antworten hauptsächlich auf Farben außerhalb eines bestimmten RGB-Farbraums konzentrieren, interessiert mich auch, ob es Beispiele gibt, bei denen beispielsweise die Farbe eines Objekts aufgrund einer Interaktion zwischen den Farben "falsch" angezeigt wird, wenn es in RGB gerendert wird Lichtquellenspektrum und Reflexionsspektrum des Objekts. Mit anderen Worten, ein Fall, in dem ein Spektralrenderer korrektere Ergebnisse liefert.


Kredit: Ich mochte diese Frage in der vorherigen privaten Beta, also reproduziere ich sie hier. Es wurde ursprünglich von Nathan Reed gefragt


2
Ich erinnere mich an diese Zeitung, die ich vor einiger Zeit gelesen habe. Die Autoren vergleichen spektrale und RGB-gerenderte Ergebnisse mit unterschiedlichen Leuchtmitteln. Leider wird der Vergleich auf einer Farbkarte durchgeführt, sodass ich nicht sicher bin, inwieweit sich die Unterschiede auf reale Szenen auswirken. cg.cs.uni-bonn.de/publications/paper-details/…
yuriks

Das Beer'sche Gesetz (Absorption von Farbe durch ein transparentes Objekt über die Distanz) ist mit rgb schwer zu modellieren.
Alan Wolfe

@ Trichoplax Sorry für den Lärm!
Luser Droog

@ luserdroog danke für das interesse :) Obwohl es sich bei dieser Frage nur um Materialien handelt, könnten wir neue Fragen im Zusammenhang mit Farbräumen beantworten ...
trichoplax

Antworten:


25

Es gibt verschiedene Arten von Einschränkungen, die berücksichtigt werden müssen.

Effekte, bei denen der Strahlengang von der Wellenlänge abhängt

Dies ist eine Klasse von Effekten, für die eine spektrale Wiedergabe erforderlich ist. In der Antwort von Benedikt Bitterli wurden bereits einige interessante Beispiele genannt . Ein einfaches Beispiel ist ein Prisma, das weißes Licht in ein Spektrum aufteilt und Regenbogenfarben ergibt. Strahlen unterschiedlicher Wellenlänge werden beim Durchgang durch das Prisma um verschiedene Winkel gebrochen, was dazu führt, dass das Licht, das auf die Wand hinter dem Prisma fällt, in seine Grundfarben aufgeteilt wird.

Dies bedeutet, dass im wirklichen Leben, wenn ein monochromatisches gelbes Licht durch ein Prisma gestrahlt wird, gelbes Licht austritt, aber wenn eine Mischung aus rotem und grünem Licht, die in etwa gelb ist, gestrahlt wird, entsteht getrenntes rotes und grünes Licht. Beim Rendern mit nur 3 Primärfarben wird weißes Licht nur in diese drei Farben aufgeteilt, was zu diskontinuierlichen Regenbogeneffekten führt, und monochromes Licht, das überhaupt nicht aufgeteilt werden sollte, wird in seine ungefähren Primärfarbkomponenten aufgeteilt. Die Aufspaltung von weißem Licht kann durch die Verwendung einer größeren Anzahl von Primärfarben verbessert werden. Dies führt jedoch immer noch zu Unstetigkeiten in der Nähe und die Ergebnisse für monochromatisches Licht werden immer noch aufgeteilt, wenn auch enger. Für genaue Ergebnisse muss ein kontinuierliches Spektrum abgetastet werden.

Oberflächeneffekte, die nicht in einem einzelnen Standbild erfasst werden können

Das Schillern zeigt beispielsweise für jedes Auge eine andere Farbe, sodass ein Standbild nicht so aussieht wie das Originalobjekt. Es gibt viele alltägliche Beispiele, die Sie auf den ersten Blick vielleicht nicht bemerken. Viele gewöhnliche Vögel haben schillernde Federn, obwohl sie von weitem schwarz oder grau erscheinen. In Nahaufnahme sind sie überraschend bunt.

Ein Renderer, der nur 3 Primärfarben verwendet, ist nicht in der Lage, die für diesen Effekt erforderliche Lichtstreuung basierend auf der Wellenlänge zu erzeugen. Ein Spektralrenderer kann die Ausbreitung korrekt simulieren, der gesamte Effekt kann jedoch nicht in einem einzelnen Bild erfasst werden. Selbst ein 2D-Foto kann dies nicht korrekt erfassen, wohingegen ein 3D-Foto eines schillernden Objekts diesen schimmernden Effekt ergibt, da die Fotos für das linke und das rechte Auge unterschiedlich gefärbt sind. Dies ist eher eine Einschränkung von 2D-Bildern als des RGB-Farbraums. Sogar in einem 3D-Bild gibt es jedoch Farben in dem irisierenden Objekt, die nicht richtig angezeigt werden, da RGB nicht in der Lage ist, monochrome Farben wie unten beschrieben anzuzeigen.

Farben, die das menschliche Auge erkennen kann, können nicht in RGB angezeigt werden

RGB war historisch geräteabhängig und daher zwischen Plattformen unzuverlässig. Es gibt geräteunabhängigen einheitliche Eindruck vermitteln Verbesserungen wie der Farbraum Lab , aber diese sind noch trichromatischen (mit 3 - Komponenten). Es ist nicht sofort klar, warum drei Komponenten nicht ausreichen, um alle Farben anzuzeigen, die von einem trichromatischen Auge wahrgenommen werden können. In diesem Artikel wird dies jedoch gut und leicht verständlich erklärt. Ab Seite 7:

Wenn wir zum Beispiel ein modernes Laseranzeigesystem mit monochromatischen Primärfarben bei 635 nm (rot), 532 nm (grün) und 447 nm (blau) verwenden, können wir die Wahrnehmung eines monochromatischen Lichts bei 580 nm (uu) simulieren orange Farbe). Da der monochromatische Orangenreiz die grünlichen und rötlichen Zapfen erregt, ist sowohl für die grünen als auch für die roten Vorwahlen ein Beitrag erforderlich, während für die blauen Vorwahlen kein Beitrag erforderlich ist. Das Problem ist, dass die grüne Primärfarbe auch die bläulichen Zapfen erregt, wodurch es unmöglich wird, den orangen Reiz genau zu replizieren

Das Diagramm der Empfindlichkeit der Zapfen des menschlichen Auges (ebenfalls auf Seite 7) zeigt, wie groß die Überlappung ist, und hilft, diese Erklärung zu veranschaulichen. Ich habe hier ein ähnliches Diagramm aus Wikipedia eingefügt: (Klicken Sie auf das Diagramm, um den Wikipedia-Speicherort anzuzeigen.)

Grafik der Empfindlichkeiten der 3 verschiedenen Zapfen im menschlichen Auge

Kurz gesagt bedeutet die Überlappung zwischen den Farbbereichen, die von jedem der drei verschiedenen Kegel (Farbsensoren) des menschlichen Auges aufgenommen werden können, dass eine monochrome Farbe von einer ungefähren Mischung von Primärfarben unterschieden werden kann und daher Primärfarben gemischt werden Farben können niemals alle monochromatischen Farben genau anzeigen.

Dieser Unterschied ist im täglichen Leben normalerweise nicht spürbar, da die meisten unserer Umgebungen Licht über einen weiten Frequenzbereich emittieren oder reflektieren, anstatt einzelne monochromatische Farben. Eine bemerkenswerte Ausnahme bilden jedoch Natriumdampflampen. Wenn Sie in einem Teil der Welt leben, in dem diese gelb-orangefarbenen Straßenlaternen verwendet werden, ist das ausgestrahlte Licht einfarbig und unterscheidet sich geringfügig von einem gedruckten Foto oder einem Bild auf einem Bildschirm. Die Wellenlänge von Natriumlicht ist zufällig die 580 nm aus dem oben angegebenen Beispiel. Wenn Sie nicht an einem Ort mit Natrium-Straßenlaternen wohnen, können Sie dasselbe Licht mit einer Wellenlänge sehen, indem Sie fein zerkleinertes Kochsalz (Natriumchlorid) über eine Flamme streuen. Die funkelnden gelben Lichtpunkte können nicht genau auf einem Film erfasst oder auf einem Bildschirm angezeigt werden. Welche drei Grundfarben Sie auch wählen,

Beachten Sie, dass diese Einschränkung gleichermaßen für das Mischen von 3 Primärfarben von Farbe mit 3 photoreaktiven Chemikalien auf einem Kamerafilm oder das Aufnehmen eines Fotos mit einer Digitalkamera mit 3 verschiedenen Farbsensoren oder einem einzelnen Sensor mit 3 verschiedenen Primärfarbfiltern gilt. Es ist nicht nur ein digitales Problem und beschränkt sich nicht nur auf den RGB-Farbraum. Selbst die durch den Lab-Farbraum und seine Varianten eingeführten Verbesserungen können die fehlenden Farben nicht wiederherstellen.

Verschiedene Effekte

Mehrfache diffuse Reflexionen (Farbbluten)

Befindet sich eine hellmatte Oberfläche in der Nähe einer weißmatten Oberfläche, zeigt die weiße Oberfläche einen Teil der Farbe der anderen Oberfläche. Dies lässt sich mit rein roten, grünen und blauen Komponenten recht gut modellieren. Dieselbe Kombination von Rot, Grün und Blau, die die Farbe der farbigen Oberfläche ergab, kann von der weißen Oberfläche reflektiert werden und wieder einen Teil dieser Farbe zeigen. Dies funktioniert jedoch nur, wenn die zweite Oberfläche weiß ist. Wenn die zweite Oberfläche ebenfalls gefärbt ist, ist der Farbverlauf ungenau, in einigen Fällen drastisch.

Stellen Sie sich zwei Oberflächen vor, die eine ähnliche Farbe haben. Man reflektiert einen engen Wellenlängenbereich um Gelb. Der andere reflektiert einen weiten Wellenlängenbereich zwischen Rot und Grün und sieht daher auch gelb aus. Im wirklichen Leben ist das Licht, das auf einer Oberfläche aufgrund der anderen sichtbar ist, nicht symmetrisch. Der größte Teil des Lichts, das von der anderen Oberfläche in den weiten Wellenlängenbereich gelangt, wird wieder reflektiert, da der enge Bereich der eingehenden Wellenlängen alle innerhalb des weiteren Bereichs liegt. Der größte Teil des Lichts, das von der anderen Oberfläche in den engen Wellenlängenbereich gelangt, befindet sich jedoch außerhalb des engen Bereichs und wird nicht reflektiert. In einem RGB-Renderer werden beide Oberflächen als Mischung aus monochromatischem Rot und monochromatischem Grün modelliert, ohne dass sich das reflektierte Licht unterscheidet.

Dies ist ein extremes Beispiel, bei dem der Unterschied für das Auge sofort erkennbar ist, bei den meisten Bildern mit Farbbluten jedoch zumindest geringfügige Unterschiede auftreten.

Materialien, die eine Wellenlänge absorbieren und eine andere emittieren

Die Antwort von joojaa beschreibt die Absorption von ultraviolettem Licht durch Schnee, das als sichtbares Licht wieder ausgestrahlt wird. Ich hatte vorher noch nie von Schnee gehört (und frustrierenderweise konnte ich keine Beweise dafür finden - obwohl dies erklären würde, warum Schnee "weißer als weiß" ist). Es gibt jedoch zahlreiche Hinweise darauf, dass es sich um eine Vielzahl anderer Materialien handelt, von denen einige Wäschewaschmitteln und Papier zugesetzt werden, um besonders helle Weißtöne zu erzielen. Dies ermöglicht, dass das gesamte sichtbare Licht, das von einer Oberfläche ausgeht, mehr als das gesamte sichtbare Licht ist, das von dieser Oberfläche empfangen wird, die wiederum nur mit RGB nicht gut modelliert wird. Wenn Sie mehr darüber erfahren möchten, müssen Sie nach dem Begriff Fluoreszenz suchen .

Augen mit mehr als 3 Grundfarben

Es gibt Tiere, die mehr als 3 Zapfentypen in den Augen haben, sodass sie mehr als 3 Grundfarben wahrnehmen können. Beispielsweise sind viele Vögel, Insekten und Fische Tetrachromaten , die vier Grundfarben wahrnehmen. Einige sind sogar Pentachromaten und nehmen fünf wahr. Die Farbpalette, die solche Kreaturen sehen können, übersteigt die Reichweite, die nur mit RGB angezeigt werden kann. Weit hinter ihnen befindet sich die Mantis-Garnele , eine Zwölffingerdarmgarnele, deren Farben auf 12 verschiedenen Zapfen basieren. Keines dieser Tiere würde mit einem RGB-Display zufrieden sein.

Aber im Ernst, sogar für Bilder, die für das menschliche Auge bestimmt sind, wird angenommen, dass es menschliche Tetrachromaten gibt, die in 4 Grundfarben sehen, und möglicherweise einige, die bis zu 5 oder 6 sehen. Gegenwärtig scheinen solche Menschen nicht anwesend zu sein in ausreichender Anzahl, um Displays mit mehr als 3 Primärfarben kommerziell nutzbar zu machen, aber wenn es in Zukunft einfacher wird, zu identifizieren, wie viele Primärfarben eine Person sehen kann, kann dies zu einem attraktiven Merkmal werden, das dazu führt, dass es sich in zukünftigen Generationen in der gesamten Bevölkerung ausbreitet. Wenn Sie also möchten, dass Ihre Urenkel Ihre Arbeit schätzen, müssen Sie sie möglicherweise mit einem hexachromatischen Monitor kompatibel machen ...


Nicht wirklich relevant für diese Frage, aber verwandt: Wenn Sie Farben sehen möchten, die weder in der realen Welt noch in RGB-Bildern verfügbar sind, schauen Sie sich Chimerical Colors an ...


15

Ich glaube, der auffälligste spektrale Effekt, der mit RGB nicht genau reproduziert werden kann, ist die Dispersion , die durch Dielektrika mit spektral variierendem Brechungsindex verursacht wird (normalerweise nach der Sellmeier-Gleichung modelliert ).

Andere spektrale Phänomene werden normalerweise durch Welleneffekte verursacht. Ein Beispiel, das im wirklichen Leben immer wieder vorkommt, sind Dünnschichtstörungen , die durch eine oder mehrere übereinander geschichtete reflektierende Oberflächen (z. B. Ölteppiche, Seifenblasen) verursacht werden. Ein anderer Welleneffekt, der manchmal beobachtet werden kann, ist die Beugung , die z. B. durch Beugungsgitter verursacht wird, was das funky Erscheinungsbild von CDs verursacht.


7

RGB funktioniert, weil unser Sinnesapparat so funktioniert. Zusätzlich zur Dispersion weisen einige künstliche Materialien und Insektenkörper manchmal Oberflächen auf, die sehr enge Farbbänder aufweisen. Diese können von einem Breitspektrum-Rendering profitieren.

Da jedoch viele dieser Effekte ziemlich lokalisiert sind, können Sie oft davon abkommen, wenn der Shader nur seltsam funktioniert. Dies funktioniert bei Reflexionen und Refraktionen nicht richtig, aber niemand wird es wahrscheinlich bemerken. Es ist keine große Sache, es sei denn, Sie machen eine physikalische Simulation. Wenn Sie jedoch eine Optik entwerfen, ist dies möglicherweise eine große Sache.

Einige Materialien, wie z. B. Schnee, wandeln auch einfallendes UV-Licht in sichtbares Licht um. Auch diese Art von Effekt kann normalerweise von Shadern / speziellen Lichtgruppen verarbeitet werden.

Schmetterlingsflügel sind auch eine Kuriosität, da sie die Wellenphasen und die Formen des einfallenden Lichts manipulieren. Wenn Sie also Physiksimulationen auf diesen durchführen möchten, ist das eine große Sache.

Die Polarisation von Licht spielt auch bei Insekten und Wassereffekten eine große Rolle.


3

Um die oben genannten hervorragenden Vorschläge zu ergänzen, kam mir der Gedanke, dass fluoreszierende Materialien ohne einen UV-Kanal schwierig zu modellieren wären.


1
Dies scheint eher ein Kommentar als eine Antwort zu sein. Vielleicht könnten Sie erläutern, warum fluoreszierende Materialien von einem UV-Kanal abhängen, und einige Referenzen liefern?
Martin Ender

1
Ich erwähnte dies in meinem Beitrag, ohne das Wort fluoreszierend zu verwenden. Auf jeden Fall kann dies auf Shader-Ebene erreicht werden.
Joojaa

@ joojaa: Sorry .. hab das verpasst. Ich würde meinen Beitrag löschen, wenn es einen offensichtlichen Knopf dafür gäbe. Allerdings würde ich sagen, dass Sie noch weitere Kanäle benötigen (und nicht nur Shader), um dies zu handhaben, z. B. die sofortige Generierung von Umgebungskarten.
Simon F

2
Löschen oder nicht löschen, das gleiche gilt für mich. Ich würde es vorziehen, wenn Sie es erweitern. Es ist nichts Falsches an Belegen und Aussagen, die anders lauten, solange Sie einen Beitrag mit besserer Klarheit oder neuen Informationen leisten.
Joojaa
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.