Warum zeichnet meine Kamera Labyrinthe auf meinen Fotos?


8

Auf den Fotos, auf denen der Linseneffekt vorhanden ist, zeichnet meine Nikon D7000 seltsame labyrinthartige Artefakte. Hier ist ein Beispiel.

Das erste Bild ist ein Screenshot eines kleinen Teils des Originalfotos, das in Lightroom 2: 1 gezoomt wurde.

Das zweite Bild ist dasselbe Foto, wobei der Kontrast, die Klarheit und die Schärfe von Lightroom auf das Maximum eingestellt sind, um das Labyrinthmuster besser sichtbar zu machen.

Geben Sie hier die Bildbeschreibung ein

Geben Sie hier die Bildbeschreibung ein

Dies betrifft nur einige der Fotos mit Linseneffekt. Hier ist zum Beispiel der Linseneffekt vorhanden und die Lichtverhältnisse sind sehr nahe am ersten Foto, aber es gibt kein Labyrinthmuster, nur übliches Rauschen (Screenshot eines Teils eines Fotos im Verhältnis 1: 1 mit Kontrast, Klarheit und Schärfungssatz) bis zum Maximum):

Geben Sie hier die Bildbeschreibung ein

Anmerkungen:

  • Ich kann dieses Muster nur auf einigen Fotos sehen, wenn die Sonne im Rahmen oder fast im Rahmen steht.

  • Es ist mit jedem Objektiv vorhanden, das ich getestet habe.

  • Das eigentliche Foto wurde mit 1: 8, ISO 200, 1/640 s aufgenommen. Ich habe dieses Muster auch auf Fotos gesehen, die mit ISO 100 aufgenommen wurden.

  • Das Foto ist im RAW-Format, es handelt sich also nicht um ein JPEG-Artefakt.

Was ist das? Wie vermeide ich das?


3
Die Art der Artefakte lässt mich denken, dass dies beim Demosaikierungsschritt geschieht, aber das Farbfilter-Array des D7000 ist nichts Ungewöhnliches, das zu so etwas führen würde. Ich nehme nicht an, dass Sie ein Beispiel für RAW bereitstellen könnten?
Hobbs

3
Ich muss sagen, wenn Sie ein Bild mit dieser Zoomstufe betrachten und nach Problemen suchen, werden Sie sie finden. Und Sie übertreiben sie dann, indem Sie z. B. schärfen. Aber sehen Sie diese Dinge tatsächlich in einem Druck? Sind sie wirklich wichtig oder machen Sie es sich nur schwerer, sich um sie zu sorgen? Was Sie tun, wäre, ein Mikroskop zu nehmen, um ein Filmnegativ zu untersuchen und sich darüber zu beschweren, dass Getreide sichtbar ist.
StephenG

@hobbs: Hier ist ein Beispiel für RAW: drive.google.com/file/d/0B3keqY_6PUhwTjRJSXJYdU1UQUE/… . Es ist nicht das genaue Bild, das ich in meiner Frage gepostet habe (seit ich das RAW seitdem gelöscht habe), sondern das, das einige Sekunden später aufgenommen wurde und das genau das gleiche Muster aufweist.
Arseni Mourzenko

@ StephenG: Ich habe nie gesagt, dass ich mir über diese Muster Sorgen mache. Ich bin nur neugierig auf ihre Herkunft angesichts ihrer ungewöhnlichen Form; Zum Glück stellte ich die Frage und lernte aus den tollen Antworten etwas Neues.
Arseni Mourzenko

Antworten:


5

Alles, was Sie auf dem Bildschirm anzeigen, sind keine Rohdaten. Rohbilddaten sind lineare monochrome Luminanzwerte und sonst nichts. Alles, was mehr als eine Farbe anzeigt, ist das Ergebnis der Anwendung, mit der Sie das Bild anzeigen. Dabei werden die rohen Luminanzwerte in gammakorrigierte Lichtkurven übersetzt und demosaikiert, um interpolierte Farben zu erstellen und auf 8 Bit zu reduzieren, die an Ihre 8 gesendet werden sollen -bit Monitor.

Wenn Sie dieselben Rohdaten mit einer Anwendung anzeigen, die unterschiedliche Demosaikierungs- und Gammakorrekturalgorithmen verwendet, werden unterschiedliche Muster angezeigt, die mehr oder weniger regelmäßig sind als die, die Sie mit der Anwendung erhalten haben, mit der Sie sie oben angezeigt haben.

Die Muster, die Sie im ersten Bild sehen, sind auch im zweiten vorhanden. Sie sind einfach nicht so weit verbreitet oder einheitlich. Schauen Sie sich den Übergangsbereich zwischen dem sehr hellen und dem sehr dunklen Bereich oben links genau an. Sie sind dort. Ihr erstes Bild hat nur viel mehr Bereich, in dem es mittlere Tonwerte gibt, die alle den gleichen Farbton haben und vom Verarbeitungsalgorithmus nach oben (hellere Pixel) oder nach unten (die dunkleren Pixel) gedrückt werden.

4X Ernte
Ein 4-fach vergrößerter Ausschnitt Ihres zweiten Bildes

8X Ernte
Eine 8-fach vergrößerte Ernte eines Bereichs nahe der oberen Mitte der obigen Ernte. Beachten Sie die Treppenmuster entlang des diagonalen Kontrastbereichs?

Wenn Sie den Kontrast erhöhen, wird die Lichtreaktionskurve steiler und geringfügige Helligkeitsunterschiede in den Mitteltönen werden verstärkt. Tatsächlich erzwingen Sie, dass alle Pixel sehr dunkel oder sehr hell sind und nicht viel dazwischen liegt.

Es ist nur eine Vermutung, aber meine Vermutung ist, dass die dunklen Linien im ersten Bild die Pixel sind, die am meisten von blau gefilterten Pixeln beeinflusst werden, und die helleren Linien sind die Pixel, die am meisten von rot und grün gefilterten Pixeln beeinflusst werden. Beachten Sie, dass alle drei Farbwerte für jedes Pixel normalerweise während der Demosaikierung interpoliert werden. Dies liegt daran, dass ein Teil des gesamten sichtbaren Spektrums durch alle drei verschiedenfarbigen Filter einer Bayer-Maske gelangt . Einige der grün gefilterten Pixel zwischen zwei blau gefärbten Pixeln werden dunkler gezogen. Die meisten grünen Pixel werden mit den Rottönen in Richtung heller gezogen. Das würde erklären, warum die helleren Linien normalerweise zwei Pixel breit sind und die dunkleren Linien eine einzelne Pixelbreite haben.

Wenn fast das gesamte Licht in einem bestimmten Bereich in der Nähe der gleichen Farbe ist (in Bezug auf die Farbintensität), muss der Demosaikierungsalgorithmus nur die Helligkeit eines Pixels vom nächsten unterscheiden. Die durch die Sonne verursachte Verschleierung der Verschleierung macht die Helligkeit von einem Pixel zum nächsten gleichmäßiger als dies sonst der Fall wäre. Dies könnte das Phänomen längerer gerader Linien mit dunkleren und helleren Pixeln erklären, anstatt einer zufälligeren Verteilung, wie sie auf dem größten Teil des zweiten Fotos zu sehen ist.


7

Guter Fang, das Problem "Green Channel Crosstalk" sieht genauso aus. Mein Verständnis ist, dass (aufgrund von Unklarheiten im Sensordesign) die Hälfte der grünen Pixel stärker mit Rot und die Hälfte stärker mit Blau korreliert, und wenn alles aus dem Ruder läuft, interpretieren einige Algorithmen dies als Hochfrequenz Luma-Inhalt mehr oder weniger.
Hobbs

Dies ist genau der Grund, warum ich nach einem Raw gefragt habe - ich hatte gehofft, das Image von OP durch ein paar alternative Algorithmen laufen zu lassen :)
Hobbs

4

Um die Analyse von Ben Rudgers zu bestätigen, habe ich die von Ihnen bereitgestellte NEF-Datei genommen und über RawTherapee ausgeführt.

Hier ist eine Vergrößerung einer ähnlichen Ernte ohne Anpassungen und des Standard-Demosaikierungsalgorithmus "Amaze":

überraschen

Das Gleiche gilt für den "DCB" -Algorithmus:

dcb

Und das Gleiche gilt für den "VNG4" -Algorithmus, der bekanntermaßen gegen grünes Übersprechen resistent ist, aber insgesamt etwas weniger scharf:

VNG4

Der Problembereich ist ziemlich ideal, um dieses Problem zu lösen: Die Werte in den roten und blauen Kanälen sind sehr unterschiedlich (Blau ist fast Null, Rot ist ähnlich wie Grün), es gibt Flecken mit geringen Details (die Artefakte sind ohne deutlicher erkennbar tatsächliches Detail, das sie verdeckt), und dieser Teil des Fotos befindet sich in der Nähe einer Ecke, in der das Licht den Sensor in einem niedrigeren Winkel erreicht, wodurch das Auftreten von Übersprechen wahrscheinlicher wird.

Ich habe versucht, ein anderes Bild mit dem Demosaikierungsmodus "Keine" zu erstellen, um den Wertunterschied zwischen grünen Pixeln, die von roten umgeben sind, und grünen Pixeln, die von blauen umgeben sind, zu veranschaulichen, konnte es aber nicht ganz verwalten :)

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.