Dieses Problem kann eines von wenigen Dingen sein:
- Posterisierung durch JPEG-Bildkomprimierung beim Überkomprimieren eines JPEG.
- Posterisierung durch geringe Farbinformation in unteren Signalbereichen.
- Quantisierung durch Bildinformationen mit hoher Bittiefe und großem Farbumfang, die auf einem Computerbildschirm mit niedriger Bittiefe angezeigt werden.
Erstens besteht die Lösung für Fall 1 darin, weniger Komprimierung zu verwenden. Glatte Farbverläufe werden nicht gut komprimiert, da die Komprimierung tatsächlich dasselbe bewirkt, was die Fälle 2 und 3 verursacht: Eimerreiche Farbinformationen in anämische Farbinformationen umwandeln.
In Bezug auf Fall 2. Am unteren Ende des Bildsignalbereichs (Schatten und untere Mitteltöne) organisieren sich manchmal Farben in einem Farbverlauf zu großen Bändern derselben Farbe, die durch diskrete Schritte getrennt sind. Es kann nur ein Unterschied von einem oder sehr wenigen Pegeln zwischen einem Band in einem Schattengradienten und einem anderen sein, aber dieser Unterschied kann oft von unseren Augen erkannt werden (die sehr empfindlich auf Änderungen der Luminanz reagieren, insbesondere wenn der Großteil davon vorhanden ist Die Luminanz hat einen ähnlichen Ton.) Manchmal werden geringfügige diskrete Änderungen der Luminanz aufgrund mangelnder Präzision bei den Rendering-Algorithmen oder mangelnder Bittiefe falsch wiedergegeben (was eigentlich Fall 3 ist ... aber wir werden darauf zurückkommen). . Am oberen Ende des Signalbereichs stehen in der Regel viel mehr Pegel zur Verfügung, und Abstufungen können durch mehr Änderungen der Tonalität viel weicher sein.
Von Fall 2 geht Fall 3 aus: Bittiefe. Die meisten digitalen Fotos sind heutzutage in der Lage, einen weitaus umfangreicheren Datensatz darzustellen, sowohl in Bezug auf Luminanz als auch Farbskala, als dies ein durchschnittlicher Computerbildschirm kann. Die meisten Kameras sind 12 bis 14 Bit groß und erzeugen somit zwei bis vier Größenordnungen mehr Farbinformationen als der durchschnittliche 8-Bit-Computerbildschirm kann. Dies bewirkt eine Quantisierung von Farbinformationen, wenn diese aus ihrem ursprünglichen Farbraum (dem des Kamerageräts, dem 14-Bit-RAW-Bild und dem ProPhotoRGB-Farbumfang am häufigsten) in den Farbraum des Computerbildschirms umgewandelt werden, normalerweise dem 8-Bit-sRGB-Farbumfang. Diese Transformation muss das größere Farbvolumen in ein geringeres Farbvolumen und mit einer geringeren Genauigkeit zum Booten gruppieren. Das Ergebnis ist oft eine Posterisierung und das, was manche als "Lärm" oder "Getreide" bezeichnen würden.
An Ihrem Bild ist eigentlich nichts auszusetzen, es ist immer noch taktvoll in all seiner ursprünglichen hochpräzisen Schönheit mit hoher Bittiefe und großem Farbumfang vorhanden. Ihre Hardware ist einfach nicht in der Lage, sie in ihrer nativen Form zu handhaben. Moderne Software und Hardware ist in der Regel der Lage , Dithering bei dieser Transformation von „hoch“ auf „niedrig“. Das ist die Quelle der "Körnung", die viele sehen können, aber diese Körnigkeit ist tatsächlich der Grund, warum die Posterisierung nicht viel schlechter aussieht, wenn ein 14-Bit-Bild auf einem 8-Bit-Bildschirm angezeigt wird.
Die Lösung für Fall 3 und bis zu einem gewissen Grad für Fall 2 besteht darin, auf eine bessere Hardware zu aktualisieren. Bessere Hardware könnte eine bessere Grafikkarte sein, die komplexere Pixel-Shader verarbeiten kann. Bildbearbeiter wie Photoshop wechseln heutzutage zunehmend zum GPU-basierten Rendering. Die durchschnittliche Gaming-GPU für Endverbraucher ist auf Geschwindigkeit ausgerichtet. Um diese Geschwindigkeit zu erreichen, wird häufig auf Präzision verzichtet. Wenn Sie zu einer GPU mit professioneller Qualität wie Nvidia Quadro wechseln, können Sie in der Regel die Art von Shadern präziser rendern, die in einem Tool wie Photoshop (und hoffentlich Lightroom 5, wenn es endlich eintritt) verwendet werden. 2, wo es durch Rendering-Algorithmen mit geringerer Genauigkeit verursacht wird.
Der Wechsel zu einer professionellen Grafikkarte wie einem Quadro eröffnet auch einen weiteren Weg: 10-Bit-Displays und Hardware-LUTs mit hoher Bittiefe (Farb-Nachschlagetabellen). Bildschirme von Eizo, NEC, LaCie usw. sind normalerweise vorhanden 10-Bit-Rendering von einer 12-, 14- oder 16-Bit-Hardware-LUT. Die LUTs mit hoher Bittiefe ermöglichen Milliarden von Farben, und die 10-Bit-Anzeigen können diese Milliarden von Farben mithilfe fortschrittlichen Hardware-Ditherings rendern (wodurch tatsächlich eine Echtzeitanzeige aller 12 bis 16 Bit Farbinformationen erreicht wird, indem die zusätzlichen verschachtelt werden Farbinformationen über die Zeit über die 60-Hz-Bildwiederholfrequenz). Durch die Verwendung eines 10-Bit-Displays mit einer 14- oder 16-Bit-LUT wird die Posterisierung beim Bearbeiten von 14-Bit-RAW-Dateien effektiv beseitigt. Der Haken dabei ist jedoch, dass Sie Software verwenden müssen, die tatsächlich 10-Bit-Anzeigen nutzen kann. ihre LUTs und die GPUs, die sie antreiben. Einige Adobe-Programme wie Photoshop CS6 unterstützen dies, aber nur wenn Sie eine professionelle OpenGL-GPU wie Quadro haben, ist ein DisplayPort (weder DVI in irgendeiner Form noch HDMI funktionieren) mit einem legitimen 10-Bit-Display verbunden.