Wie erhöht Software die Exposition bei der Nachbearbeitung?


9

Kennt jemand irgendwelche Algorithmen oder kann mathematisch erklären, wie Helligkeit (EV) in der Nachbearbeitung ausgeführt wird? Passt es die Helligkeit / RBG / Kontrast für jedes Pixel an? Bezieht es sich auf das Histogramm?

Was sind die technischen Details der Belichtungskorrektur für ein unterbelichtetes Bild bei der Nachbearbeitung?

EDIT: In dieser Frage hier wurde ein Link gepostet. Es enthält Beispiele zum Ändern des Elektrofahrzeugs und bewegt sich nach links / rechts. In Matt Grumms Antwort gibt er an, dass jedes Pixel "multipliziert" wird (was meiner Meinung nach anzeigt, dass das Histogramm nach oben / unten verschoben wird).

Kann jemand erklären, warum dies der Fall ist? (Dieser EV ändert sich von links nach rechts)


Möchten Sie diese Frage auf bestimmte Adobe-Produkte beschränken, oder sind Sie an Belichtungsanpassungen bei der Nachbearbeitung im Allgemeinen interessiert?
Bitte lesen Sie mein Profil


2
Ich habe das zweimal gelesen und finde es immer noch ziemlich verwirrend. Könnten Sie umformulieren, um einige der diskursiveren Teile zu entfernen und sich klar auf Ihre Kernfrage zu konzentrieren?
Mark Whitaker

@ Mattdm Ja, im Allgemeinen. Itai irgendwie nicht wirklich. :) Mark Whitaker wird es tun. (Mir wurde gesagt, dass ich nicht mehr als eine Person kann)
BBking

@ Mark Whitaker Habe ich es schon klarer gemacht?
BBking

Antworten:


6

Ich weiß, dass wir alle begeistert sind von Digitalkameras, aber Tatsache ist, dass wir das nicht tun . Wir haben analoge Kameras, die zufällig ein digitales Ausgabeformat haben (und viele digitale Schaltkreise, die nicht direkt mit dem Bild zusammenhängen).

Immer wenn ein analoges Signal in ein digitales Signal umgewandelt wird, führen Sie Quantisierungsrauschen ein. Das heißt, es ist sehr unwahrscheinlich, dass das Signal, das in die Konvertierung eingeht, genau mit dem Wert der digitalen Zahl übereinstimmt, die am anderen Ende herauskommt - stellen Sie sich dies als Kürzungs- oder Rundungsfehler vor.

Wenn Sie eine digitale Bilddatei nachbearbeiten, wird das von der Kamera hinzugefügte Quantisierungsrauschen "eingebrannt". Es spielt keine Rolle, mit welcher Bittiefe Sie in der Post arbeiten. Die Daten, mit denen Sie arbeiten, enthalten sowohl die analogen (Well-, Quanten-) Rauschkomponenten (Wärme- und Schussrauschen, Verstärkerverzerrung usw.) als auch das Quantisierungsrauschen der Kameraausgabe. Die Qualität der Basisdaten ist nicht perfekt, daher führt jede Berechnung der fehlerhaften Daten zu einer fehlerhaften Ausgabe. GIGO , wie sie sagen.

In der Kamera hingegen haben Sie die Möglichkeit, das analoge Signal vor der Quantisierung zu verstärken (oder zu dämpfen) . Das hilft bei Rauschen im analogen Bereich überhaupt nicht, reduziert aber das Quantisierungsrauschen bei einem bestimmten Helligkeitsgrad .

Angenommen, Sie haben einen Analogwert von 4,4 Whatchamacallits. Wenn Sie mit ISO 100 aufnehmen, wandelt unsere hypothetische "digitale" Kamera diesen Wert in einen digitalen Wert von genau 4 um. Wenn Sie die scheinbare Belichtung in der Post erhöhen, arbeiten Sie nicht mehr mit der 4, die abgeschnitten ist. Wenn Sie den ISO-Wert in der Kamera erhöhen (um weniger als einen Punkt), wird dieser Wert von 4,4 durch analoge Schaltkreise verstärkt, bevor er in digital umgewandelt wird, und kann zu einem um 1 höheren digitalen Wert führen, als die volldigitale Verarbeitung berechnet. Ein Einzelbitunterschied mag nicht viel klingen, aber wenn Sie anfangen, alle Fehler während der Verarbeitung zu akkumulieren, ist ein bestimmtes Pixel möglicherweise ziemlich weit von den Werten entfernt, die es haben sollte. Das ist Lärm.

(Es gibt auch die Tatsache, dass die Kamera ihre eigenen Reaktionseigenschaften "kennt" und diese bei der Verarbeitung berücksichtigen kann. Lightroom führt beispielsweise keine kameraspezifische, ISO-basierte Subtraktion von Sensorrauschen durch. Kameras können dies jedoch nicht alle tun .)


Danke Stan. Ja, in einem fotografischen Bild gibt es alle Arten von Rauschen. Wenn Sie also den EV in PP einstellen, verstärken Sie auch dieses Rauschen. So wie die ISO jedes Rauschen verstärkt.
BBking

2
Das Erhöhen von ISO und EV verstärkt beide das Rauschen, aber ich denke, was Stan sagt, ist, dass das Anpassen der ISO in der Kamera nach oben besser ist als das Erhöhen der Belichtung bei der Nachbearbeitung (da Sie das Signal im Wesentlichen verstärken, bevor das Quantisierungsrauschen in das A / eingeführt wird D Schritt).
Seanmc

4

Ist das die Formel, nach der Sie suchen?

RGB[c] = max( RGB[c] * pow(2,EV), RGBmax )

Dies bedeutet im Grunde, dass Sie für jeden Kanal (jedes Pixels) der RGB-Daten diese mit 2 ^ EV multiplizieren und dann auf den Maximalwert für Ihre Daten ausschneiden. Für 8-Bit-Farben beträgt RGBmax 255, für 16-Bit-Farben 65535 usw.

EV ist hier ein relativer EV, sodass EV + 2.0 jedes Pixel mit dem Faktor vier multipliziert (aufhellt) und EV-2.0 jedes Pixel mit dem Faktor vier dividiert (abdunkelt).

Die Formel selbst hängt nicht vom Histogramm ab. Wenn Sie jedoch entscheiden müssen, welcher Belichtungswert verwendet werden soll, um das Bild optimal anzupassen, werden aus dem Histogramm Statistiken erstellt, um den EV zu berechnen.


1
Ich glaube, RGB-Werte repräsentieren bereits die wahrgenommene Helligkeit, daher ist Ihre Formel falsch. Dies wäre korrekt für die vom Sensor gemessenen Werte (die nahezu linear sind, siehe Matts Antwort), jedoch nicht für die bereits konvertierten RGB-Werte. (Versuchen Sie, was passiert, wenn Sie Ihre Formel anwenden.)
Szabolcs

@Szabolcs, ich dachte, das OP würde nach einem Algorithmus fragen, um die EV-Kompensation in der Nachbearbeitung durchzuführen, nein? Ich gebe zu, die Frage ist mir nicht ganz klar, aber sie fragen nach Mathe.
Octopus

Danke für deine Antwort! Haben Sie einen Link für diese Formeln, damit ich sie genauer untersuchen kann?
BBking

1
@ Octopus Ja, aber mein Punkt war, dass Ihre Formel falsch ist, wenn sie auf RBG-Werte angewendet wird . Die RGB-Werte werden aus den Rohdaten des Sensors berechnet, indem der Logarithmus des Rohwerts (unsere Wahrnehmung ist ungefähr logarithmisch) genommen und das Ergebnis dann linear neu skaliert wird (was der Einstellung des Schwarzpunkts und des Weißpunkts entspricht). (Plus einige andere Dinge, die Matt erwähnt hat.) Daher ist Ihre Formel korrekt, wenn sie auf Rohpixelwerte angewendet wird, aber für RGB-Werte ist sie falsch. Wenn Sie tatsächlich versuchen, die Transformation für ein Bild in der Praxis durchzuführen, werden Sie sehen, was ich meine.
Szabolcs

Nehmen Sie eine Rohdatei, extrahieren Sie die Daten dcrawmit dem -4Schalter, um sicherzustellen, dass die Protokolltransformation nicht selbst durchgeführt wird. Versuchen Sie dann, selbst eine grundlegende Rohkonvertierung durchzuführen und während des Vorgangs eine Belichtungskorrektur anzuwenden.
Szabolcs

3

NB die Frage wurde bearbeitet, da Stans Antwort auf diese Frage eine andere Frage betrifft:

Kennt jemand irgendwelche Algorithmen oder kann mathematisch erklären, wie Helligkeit (EV) in der Nachbearbeitung ausgeführt wird? Passt es die Helligkeit / RBG / Kontrast für jedes Pixel an? Bezieht es sich auf das Histogramm?

Was sind die technischen Details der Belichtungskorrektur für ein unterbelichtetes Bild bei der Nachbearbeitung?

Es kann einfach sein, alle Pixelwerte zu multiplizieren (z. B. Helligkeit, Kontrast ist kein Begriff, der für einzelne Pixel gilt) und einen Versatz anzuwenden. Wenn dies nach der Demosaikierung erfolgt, multiplizieren Sie einfach die Werte für Rot, Grün und Blau mit demselben Faktor.

Der Prozess der Belichtungskorrektur ist im Zusammenhang mit der RAW-Konvertierung etwas komplexer, da Kamerasensoren von Natur aus lineare Geräte sind, während die meisten RAW-Konverter eine nichtlineare Tonkurve anwenden, um die kontrastreiche S-Kurve zu emulieren, die Sie mit Film erhalten.

Daher ist der beste Zeitpunkt für eine Belichtungskorrektur, bevor diese angewendet wird. Dies bedeutet im Grunde, dass Sie die EC-Funktion Ihres RAW-Konverters verwenden und nicht warten müssen, bis Sie Photoshop exportiert haben, da die nichtlineare Kurve bis dahin mit ziemlicher Sicherheit angewendet wurde.

Die Situation ist noch komplexer, da einige RAW-Konverter * "verdrillte" Farbprofile verwendeten, die dazu führen, dass der Farbton / die Sättigung je nach Intensität auf unterschiedliche Werte abgebildet werden. Dies geschieht, um auf Kosten der Genauigkeit angenehmere Farben zu erzielen, und kann die Ergebnisse der Belichtungskorrektur beeinflussen.

Einige RAW-Konverter bieten auch Tools zum Wiederherstellen von Lichtern und zum Verstärken von Schatten. Diese nehmen lokale Anpassungen vor (dh sie berücksichtigen viel mehr als einzelne Pixelwerte). Wenn Sie die Details dieser Algorithmen kennen möchten, müssen Sie wahrscheinlich warten und hoffen, dass hier ein Lightroom-Entwickler auftaucht.

* Wenn ich "einige RAW-Konverter" sage, spreche ich im Grunde genommen von Lightroom / ACR, da dies der einzige ist, den ich untersucht habe. Andere fortgeschrittene RAW-Konverter tun dies wahrscheinlich ähnlich.


Können Sie nach Ihrem Wissen zeigen, wie die Multiplikation des RGB-Werts zu einer höheren Helligkeit führt? Hat eine Pixelstruktur wie in Werte für Farbe und Helligkeit? Soweit ich weiß, können Sie einen Pixelwert multiplizieren, um auch seine Farbe zu ändern. Ich mag die S-Kurve in. Ich weiß, dass ich speziell nach einem einzelnen Pixel frage, aber ich verstehe mehr, wenn es um ein Bild als Ganzes geht. Ich verstehe, dass auch Interpolation involviert ist.
BBking

1
@ BBking RAW-Dateien enthalten nur Intensitätswerte (Helligkeitswerte). Jedes Pixel verfügt über einen Farbfilter, sodass Sie abwechselnd rote, grüne und blaue Intensitäten haben. Da Kamerasensoren lineare Geräte sind, führt die Skalierung der aufgezeichneten Werte fast zum gleichen Ergebnis wie eine längere Belichtung des Sensors. Nach dem Demosaikieren können Bilder in einer Reihe von Farbformaten gespeichert werden, wobei RGB am häufigsten verwendet wird, wobei bei jedem Pixel die Menge an rotem, grünem und blauem Licht aufgezeichnet wird. Das Multiplizieren jedes dieser Werte mit demselben Faktor erhöht die Helligkeit, das Multiplizieren jedes Werts mit einem anderen Betrag ändert die Farbe.
Matt Grum

'Da Kamerasensoren lineare Geräte sind' ... Um pedantisch zu sein, sind Kamerasensoren 'fast linear' wie ([Sie haben bereits darauf hingewiesen]) ( photo.stackexchange.com/a/33986/6294 ). (Ich fand es erwähnenswert, da das OP auch an der mathematischen Formulierung des Problems interessiert ist). Ein guter Algorithmus könnte theoretisch die typische Reaktion des Sensors berücksichtigen, selbst wenn nur mit RGB-Werten gearbeitet wird.
Alberto

@ Alberto ja das ist ein guter Punkt, ich hätte "ungefähr linear" sagen sollen, aber da mein Kommentar bereits 598 Zeichen lang war, hätte das über 600 gedauert und eine Aufteilung in zwei Kommentare erforderlich gemacht;)
Matt Grum

3

Mathematisch wird die Helligkeit einer Matrix (eines Bildes) insgesamt beeinflusst, indem auf den CIE L * -Funktionswert des Pixelfarbtons eingewirkt wird. Es ist eine arithmetische Beziehung. Addiere, subtrahiere, multipliziere und dividiere.

Auch hier wird mathematisch eine Transformationsmatrix (numerisch) mit der vorhandenen Matrix in pp verknüpft. Diese können selektiv für das Subjekt oder für die Gesamtmatrix (Bild) erstellt werden.

Gute und schlechte Belichtung sind willkürliche Begriffe - solange der Beleuchtungsstärkebereich des Motivs im nützlichen Bereich des Kamerasensors liegt. Der Motivbereich kann extrem breit oder eng sein.

Hinweis: Das Histogramm ist eine visuelle Hilfe, die die relative Verteilung der Beleuchtungsstärken im Bild darstellt. Es ist linear. Es hat nichts mit Belichtung zu tun, dem wechselseitigen Verhältnis von Intensität und Zeit, das immer logarithmisch dargestellt wird.


2

Was sind die technischen Details der Belichtungskorrektur für ein unterbelichtetes Bild bei der Nachbearbeitung?

Durch bloßes Erhöhen aller Werte in einem Bild werden alle Werte um den gleichen Betrag erhöht. Diese "lineare" Reaktion ist für digitale Bilder typisch.

Wir nehmen die Dinge nicht so wahr und das resultierende Bild erscheint unnatürlich.

Das analoge Bild (Filmemulsion) erschien natürlicher, da die Reaktion einer fotografischen Emulsion der Reaktion des menschlichen visuellen Systems näher kommt. Es wurde auf eine "S" -förmige Kurve Bezug genommen. Diese charakteristische "S" -Form ist eine analoge Antwort.

Das Kompensieren des Unterschieds zwischen unserer proportionalen menschlichen visuellen Antwort und der linearen digitalen Antwort lädt verschiedene Mittel ein, um den Unterschied ästhetisch zu harmonisieren.

Es muss einen wirksamen Weg geben, um eine proportionale Kompensation für die Differenz bereitzustellen. Das ist die Technik.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.