Was ist der Unterschied zwischen „Fake HDR“ und echtem HDR in Belichtungsreihe?


10

Als ich anfing, meine Fähigkeiten in der Landschaftsfotografie aufzufrischen, stieß ich auf das polarisierende (Wortspiel beabsichtigte) Problem der HDR-Fotografie. Insbesondere stieß ich auf einen gut geschriebenen Blog-Beitrag mit dem Titel " Is a Lightroom HDR" Effect ", Really HDR? ". Um den Beitrag zu zitieren:

Ich habe diesen Beitrag neulich auf 500px gesehen (Link: http://500px.com/photo/8023755 ) und habe mich gefragt. Der Fotograf Jose Barbosa (dessen Arbeit ich übrigens für fabelhaft halte) schrieb neben seinem Foto „No HDR“. Aber das Foto (zumindest für mich) sieht aus wie ein HDR-Foto. (...) Ich habe ein wenig in den Metadaten seines Fotos gegraben und viele Anpassungspinselarbeiten mit Clarity gesehen (im Grunde der HDR-Effekt-Schieberegler in Lightroom). Und in den Kommentaren zum 500px-Beitrag schrieb der Fotograf selbst „Verarbeitung in Lightroom und Viveza 2“. (...)

Mein Punkt (und meine Frage an Sie) ist, ob HDR (das ist nicht wirklich HDR) immer noch HDR ist? Ist HDR nicht einfach nur geworden und wirkt? Ein bisschen wie Black & White oder der Cross-Processing-Effekt. Benötigen wir noch 3 oder 5 oder 7 Fotos in Klammern, die in einem Programm wie Photomatix verarbeitet wurden, um ein Bild als offizielles HDR-Foto zu klassifizieren? Oder ist HDR einfach der Effekt, mehr Details in den Schatten und Lichtern hervorzuheben (und vielleicht ein wenig grobkörniges / surreales Aussehen).

Anscheinend habe ich die gleiche Frage wie der Autor: Was ist wirklich der Unterschied zwischen diesen "Fake HDR" -Effekten, die beispielsweise durch die Anpassung der Klarheit von Lightroom und einer Wiederherstellung von Schatten / Lichtern im Gegensatz zu "echtem" HDR mit Belichtungsreihen bei + hinzugefügt wurden? / - n EV? Gibt es zusätzliches Rauschen bei der "falschen" Methode? Gibt es überhaupt einen (spürbaren) Unterschied? Gibt es in ähnlicher Weise einen Grund, ein HDR-Bild aufzunehmen, wenn wir nur die Schatten- / Glanzlichtwiederherstellung verwenden können, um die gesamte Szene gleichmäßig zu belichten?

Antworten:


22

Was ist der Unterschied zwischen „Fake HDR“ und echtem HDR in Belichtungsreihe?

Der einzige Unterschied besteht darin, wie weit oder eng Sie sich entscheiden, den Begriff High Dynamic Range Imaging (HDR) zu definieren . Verwenden Sie den breiteren Begriff, wie er seit über 150 Jahren in der Vergangenheit verwendet wird, um Techniken zu referenzieren, mit denen eine Szene mit einem höheren Dynamikbereich als dem Dynamikbereich des Anzeigemediums angezeigt wird? Oder bestehen Sie auf einer sehr engen Definition, die Techniken verwendet, die erst seit einigen Jahrzehnten bekannt sind, um zu argumentieren, dass die einzig legitime Definition von HDR eine 8-Bit-Version einer 32-Bit-Gleitkomma-Lichtkarte ist, die von erstellt wurde mehrere Belichtungsreihen kombinieren? Das wars so ziemlich.

HDR, wie der Begriff heute allgemein verwendet wird, ist nur eine Form der High Dynamic Range Imaging (HDRI) , die seit mindestens den 1850er Jahren angewendet wird .

Gustave Le Gray machte mehrere Belichtungen bei unterschiedlichen Belichtungswerten, um Seestücke zu erstellen, die den hellen Himmel von einem Glasplattennegativ und das dunklere Meer und Ufer von einem anderen verwendeten.

Das Zonensystem bei der Aufnahme und Entwicklung und Tone Mapping durchgeführt in der Dunkelkammer in der Mitte der 20. Jahrhundert wurde in eine Kunstform von Ansel Adams und anderen angehoben wie früher mal der Entwicklung und Ausweiche und Brennen des Drucks des Gesamtdynamikbereich eines senken Szene zu dem, was die verwendeten Fotopapiere anzeigen konnten.

Im Bereich der digitalen Fotografie gibt es mehrere Techniken, mit denen eine Szene mit einem hohen Dynamikbereich unter Verwendung eines Mediums wie eines Computermonitors oder eines Drucks dargestellt werden kann, das keinen so großen Kontrast zwischen den hellsten und dunkelsten Teilen einer Szene bietet wie die Szene selbst enthält. Was viele Leute meinen, wenn sie HDR sagen, ist nur eine solche Technik unter vielen.

Obwohl weit davon entfernt, das einzig legitime zu sein, das heute am weitesten verbreitete Verständnis des Begriffs HDRDies ist das Ergebnis von Ideen, die erstmals 1993 eingeführt wurden und zu einer mathematischen Theorie unterschiedlich belichteter Bilder desselben Themas führten, die 1995 von Steve Mann und Rosalind Picard veröffentlicht wurde. Es erstellt eine Lichtkarte mit hohem Dynamikbereich aus mehreren digitalen Bildern, die mit unterschiedlichen Werten belichtet werden, wobei nur globale Bildoperationen (über das gesamte Bild) verwendet werden. Das Ergebnis ist häufig ein 32-Bit-Gleitkomma-Bild, das kein Monitor oder Drucker rendern kann. Anschließend muss der Ton durch Reduzieren des Gesamtkontrasts unter Beibehaltung des lokalen Kontrasts zugeordnet werden, damit er in den Dynamikbereich des Anzeigemediums passt. Dies führt häufig zu Artefakten in den Übergängen zwischen Bereichen mit hohen Luminanzwerten und Bereichen mit niedrigen Luminanzwerten. (Selbst wenn Sie eine 12-Bit- oder 14-Bit-Rohdatei in Ihrer Fotoanwendung auf dem Computer öffnen, wird auf dem Bildschirm ein 8-Bit-Rendering der demosaikierten Rohdatei angezeigt, nicht die tatsächlich monochromatische Bayer-gefilterte 14 -bit Datei. Wenn Sie die Einstellungen und Schieberegler ändern, werden die Rohdaten neu zugeordnet und in 8 Bit pro Farbkanal erneut gerendert.

Als die von Mann und Picard beschriebenen Techniken zum ersten Mal in gängigen Bildgebungsanwendungen auf Verbraucherebene angewendet wurden, erforderten diese Anwendungen normalerweise, dass die verwendeten Bilder im JPEG-Format vorliegen. Wenig später, wenn Sie wirklich exotisch werden möchten, finden Sie möglicherweise ein Programm, mit dem Sie TIFFs verwenden können. Oft nahmen Benutzer eine einzelne Rohdatei, erstellten eine Reihe von JPEGs aus der einzelnen Datei mit etwa -2, 0, +2 Belichtungs- / Helligkeitsunterschieden und kombinierten sie dann mit dem HDR-Programm. Sogar eine 12-Bit-Rohdatei kann so viel Dynamikbereich enthalten wie eine JPEG-Reihe von -2, 0, +2. Eine 14-Bit-Rohdatei kann die entsprechenden Informationen enthalten wie eine JPEG-Serie mit -3, 0, +3. Erst vor relativ kurzer Zeit haben die meisten HDR-Anwendungen, die auf der Erstellung von Gleitkomma-Lightmaps basieren, die Verwendung von Rohdateidaten als Ausgangspunkt zugelassen.

Bei der weitesten Verwendung der Begriffe HDR (oder HDRI ) sind auch andere Prozesse enthalten, die keine 32-Bit-Luminanzkarten und die Notwendigkeit der Tonabbildung beinhalten. Die Kombination verschiedener Bereiche unterschiedlicher Belichtungen derselben Szene, sei es durch physisches Ausschneiden und Einfügen wie vor über 150 Jahren bei Le Gray oder über moderne digitale Bildgebungsanwendungen, bei denen Ebenen verwendet werden, ist eine Möglichkeit. Andere Techniken wie Exposure Fusion oder Digital BlendingFühren Sie globale Anpassungen digital auf eine Weise durch, die nicht die gleiche Art der Tonzuordnung erfordert wie eine 32-Bit-Gleitkomma-Lichtkarte. Wie bereits erwähnt, waren viele der Techniken, die im 20. Jahrhundert in der Dunkelkammer zur Herstellung von Drucken aus belichteten Filmen verwendet wurden, ein Mittel zur Anzeige von Szenen mit einem sehr großen Dynamikbereich unter Verwendung von Fotopapier, das einen niedrigeren Dynamikbereich als der Negativfilm aufweisen konnte wird verwendet, um die Szene zu erfassen. Gleiches gilt für diese vielfältigen digitalen Techniken.

Sogar das Konvertieren einer 14-Bit-Rohdatei, bei der die Daten für jedes Pixel nur einen Luminanzwert, aber keine echten Farben haben, und das Verwenden von Demosaikierungsalgorithmen zum Interpolieren eines 8-Bit-Rot-, Grün- und Blau-Farbwerts pro Farbkanal für jedes Pixel basierend Die unterschiedlichen Luminanzwerte benachbarter Pixel, die mit einer Bayer-Maske mit abwechselnden Mustern von Rot, Grün und Blau gefiltert werden , können als HDRI betrachtet werden , insbesondere wenn unregelmäßig geformte Tonkurven auf die resultierenden RGB-Werte angewendet werden.


5

Meiner Meinung nach ist es so einfach: Ein HDR-Foto ist ein Foto, auf dem Sie versuchen, die Details in jedem Teil einer Szene mit einem hohen Dynamikbereich aufzurufen. Immerhin sagt das der Name "HDR" für sich.

Was ist nun ein hoher Dynamikbereich? Es ist, wenn die Schattenteile des Bildes viel dunkler sind als die hellen Teile des Bildes. In der Vergangenheit wurden mehrere Fotos mit unterschiedlichen Belichtungen aufgenommen, um die Details in jedem Teil der Szene zu erfassen, da Kameras nicht in der Lage waren, einen hohen Dynamikbereich zu erfassen. Heutzutage können Kameras problemlos 14 Belichtungsstopps erfassen (was bedeutet, dass das Detail im dunkelsten Ton 2 bis 14 Mal weniger physisches Licht aufweist als die hellsten Töne, die die Kamera erfassen kann) (Beispiel: Die Nikon D750 verfügt über einen Dynamikbereich von 14,5 Blendenstufen ). Dies ist viel und in mehr Situationen als zuvor genug, um den gleichen Effekt eines "HDR-Fotos" bei Mehrfachbelichtung zu erzielen. Kurz gesagt, Kameras können große Entfernungen besser erfassen. und deshalb ist der Bedarf an mehreren Fotos mit unterschiedlichen Belichtungen gesunken, aber das macht es nicht zu HDR. Zusammenfassend ist das Foto auf 500px, das Sie verlinkt haben, definitiv ein HDR-Foto, da Sie feststellen können, dass Sie in allen Teilen des Bildes viele Details für eine Szene mit ursprünglich viel Dynamikbereich sehen können.


1

Wenn wir nur die Schatten- / Glanzlichtwiederherstellung verwenden können, um die gesamte Szene gleichmäßig zu belichten

Dies hängt vom Dynamikbereich der Szene ab, die Sie erfassen möchten, und vom Dynamikbereich, den der Sensor erfassen kann.

Wenn Sie beim Belichten kaum Details in den Schatten sehen, um die Glanzlichter nicht zu blasen, benötigen Sie mehrere Belichtungen.

Wenn Sie genügend Details in den Schatten erhalten (mit minimalem oder akzeptablem Rauschpegel) und gleichzeitig die Glanzlichter beibehalten können, sind Sie möglicherweise mit der Aufnahme und Anpassung eines einzelnen Fotos zufrieden.


0

Meine Antwort wird eine Art praktischer und experimenteller Weg sein, um das Verständnis zu erlangen.

  1. Gehen Sie zu einem Ort wie einer Stadt mit einem Gebäude und einer Straße, wo Sie an einem sonnigen Tag direkt in die Sonne oder den Himmel schauen können, oder zu einem Ort, an dem es zum Beispiel einen Wald gibt und Sie auch die Sonne oder die Sonne sehen können Himmel.

  2. Schauen Sie (mit Ihren eigenen Augen) auf die Gebäude oder die Bäume.

  3. Schauen Sie in den Himmel oder in die Nähe der Sonne (schauen Sie lieber nicht direkt in die Sonne).

Sie können beobachten, wie sich die Augen anpassen. Sie können beide Bäume und den Himmel sehen.

  1. Nehmen Sie Ihre Kamera mit, wenn Sie über eine Live-Ansicht verfügen. Sie können sie einschalten.

  2. Richten Sie Ihre Kamera auf die gleichen Punkte, die Sie sich angesehen haben.

Sie werden sehen, dass die Kamera bei einer und der einzigen Belichtung nicht effektiv den Blick auf den Himmel und die dunkleren Objekte erhalten kann. Selbst wenn Sie die Szene mit einer Art durchschnittlicher Belichtungseinstellung aufnehmen, gibt es Stellen, die schwarz und einige weiß (unter- und übersättigt) sind. Selbst wenn Sie versuchen, die Belichtung in der speziellen Software lokal zu verringern oder zu erhöhen (es gibt viele davon), gibt es keine Möglichkeit, die Form und die Farben von Weiß und Schwarz herauszuholen.

Es ist die Realität. Die Stromsensoren sind nicht so weit fortgeschritten wie die Augen. Übrigens ist es aus Gründen der Technik auch eine erwünschte Funktion, die in der Low-Key- und High-Key-Fotografie verwendet wird.

Lassen Sie uns das Experiment fortsetzen.

  1. Wenn Sie einige Fotos aufnehmen können, um weitere Informationen zu erhalten, und diese später in der HDR-Software zusammenführen können, kombinieren Sie alle Informationen aus allen Fotos.

  2. Das Beste ist, mehr Bilder mit einem kleineren EV-Schritt aufzunehmen, wenn die Szene statisch ist. Wenn sich Objekte bewegen, muss es einen Kompromiss zwischen der Anzahl der Schüsse und dem EV-Schritt geben.

Je nach Situation können Sie aus 3 Bildern +/- 1 EV oder 3 mit +/2 EV bis zu 9 oder mehr Aufnahmen +/- 0,5 EV oder sogar +/- 2 EV aufnehmen.

Wichtig ist auch, wie Sie den EV-Wechsel durchführen. Grundsätzlich ist die beliebteste Methode, die Verschlusszeit zu verlängern oder zu verkürzen. Mit einigen Einschränkungen kann man ISO-Änderungen verwenden, um dasselbe zu erhalten, aber mit hohen ISO-Werten sind Bilder verrauscht. Das Ändern der Blende macht das Zusammenführen von Bildern schwierig und die Effekte sind interessant (ich würde sagen, künstlerisch oder konzeptionell). Natürlich kann man ND-Filter verwenden, um den eigenen EV-Bereich zu erweitern - versuchen Sie, einige extreme Filter wie ND 3.0 zu verwenden.

Wenn die Bilder gut vorbereitet sind und über eine große Auswahl an Elektrofahrzeugen verfügen, ist das HDR-Ergebnis erstaunlich und es gibt keine Möglichkeit, es aus einem einzelnen Bild zu fälschen, da das einzelne Bild definitiv weniger Informationen enthält.

Letzte Kommentare.

Diese Art von Szene können Sie mit dem Verlaufsfilter aufnehmen, aber HDR ist allgemeiner, insbesondere wenn die Grenze zwischen hellen und dunklen Orten nicht linear ist.

Ich empfehle das Stativ für alle Experimente mit HDR zu verwenden :-).


0

Es gibt ein Missverständnis von "HDRI"

Ein Bild mit hohem Dynamikbereich hat einen größeren Dynamikbereich als ein normales Bild. Es klang ziemlich lahm, aber das ist es.

Hier sind einige Animationen, die ich gemacht habe, um zu erklären, was ein HDRI ist: http://www.otake.com.mx/Apuntes/Imagen/EnviromentMaps/Index.html#HighDynamicRangeImages

Das Missverständnis ist , dass ein Teil des Prozesses der Manipulation dieses Bilder, genannt Ton Maping das gleiche wie die Hdri Bild selbst ist . Es ist nicht. Ein HDRI-Bild enthält wirklich mehr Informationen. Sonnige Außenseiten und dunkle Innenräume zusammen.

Um diese Informationen auf einem normalen Monitor wieder sehen zu können, muss das HDR-Bild "neu zugeordnet" werden. Ein Tonabbild hat einen bestimmten Kontrasttyp. Kein Gesamtkontrast, sondern ein Kontrast zu benachbarten Zonen. Jetzt können Sie beispielsweise kontrastierte Wolken und kontrastierte dunkle Innenräume sehen.

Der Punkt ist, dass Sie ein normales Foto (ohne Klammerung) aufnehmen und eine Tonzuordnung vornehmen können, damit Sie den "hdri" -Look erhalten.

Hier sind 3 Triebe. Eine davon ist die Tonabbildung aus einem Satz von 3 Fotos in Klammern (echte HDRI, jetzt jedoch Tonabbildung in einem 8-Bit-Bild).

Der zweite ist ein Ton, der von einem einzelnen Schuss abgebildet wurde.

Der dritte ist nur der normale Einzelschuss, bewegt aber die Levels stark, um einige zusätzliche Informationen über den Himmel zu enthüllen, die wir vorher nicht gesehen haben.

Der Punkt ist, dass ein normales Foto manipuliert werden kann, ausweichen und brennen kann, um ein ähnliches, kontrastreiches Aussehen auf einem Foto zu erzielen.

Hier sind die in Klammern gesetzten Originalfotos. Das für (2) und (3) verwendete ist das Ev0:

Einige Informationen sind dort versteckt. Bei der Verarbeitung kann es jedoch zu Streifenbildung kommen, da die Pixel nur begrenzte Informationen enthalten. Um Streifenbildung zu vermeiden, ist es besser, wenn Sie mehr Informationen, mehr Helligkeitstöne und mehr Schattenstufen haben. Deshalb haben Sie die Bilder in Klammern aufgenommen.

Der Punkt ähnelt diesem Beitrag: Was bringt es, 14-Bit-Bilder aufzunehmen und auf 8-Bit-Monitoren zu bearbeiten? Mehr Informationsebenen sind beim Bearbeiten von Bildern besser.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.