Ich weiß, dass Leute ausgefallene Software wie Lightroom oder Darktable verwenden, um ihre RAW-Dateien nachzubearbeiten. Aber was ist, wenn ich es nicht tue? Wie sieht die Datei aus, weißt du, RAW ?
Ich weiß, dass Leute ausgefallene Software wie Lightroom oder Darktable verwenden, um ihre RAW-Dateien nachzubearbeiten. Aber was ist, wenn ich es nicht tue? Wie sieht die Datei aus, weißt du, RAW ?
Antworten:
Es gibt ein Tool namens dcraw, das verschiedene RAW-Dateitypen liest und Pixeldaten daraus extrahiert - es ist eigentlich der Originalcode, der vielen Open Source- und sogar kommerziellen RAW-Konvertierungsprogrammen zugrunde liegt.
Ich habe eine RAW-Datei von meiner Kamera und ich habe dcraw in einem Modus verwendet, der angibt, dass ein Bild mit wörtlichen, nicht skalierten 16-Bit-Werten aus der Datei erstellt werden soll. Ich habe das in ein 8-Bit-JPEG konvertiert, um es mit Perceptual Gamma zu teilen (und für den Upload verkleinert). Das sieht so aus:
Offensichtlich ist das Ergebnis sehr dunkel. Wenn Sie jedoch klicken, um es zu vergrößern, und wenn Ihr Monitor anständig ist, können Sie einen Hinweis auf etwas sehen .
Hier ist das nicht in der Kamera befindliche Farb-JPEG, das aus derselben RAW-Datei gerendert wurde:
(Bildnachweis: meine Tochter benutzt übrigens meine Kamera.)
Immerhin nicht ganz dunkel. Die Details, wo genau sich alle Daten verstecken, werden am besten durch eine eingehende Frage abgedeckt. Kurz gesagt, wir benötigen eine Kurve, die die Daten über den Bereich von Dunkel- und Helligkeitsstufen erweitert, die in einem 8-Bit-JPEG auf einem typischen Bildschirm verfügbar sind .
Glücklicherweise hat das dcraw-Programm einen anderen Modus, der sich in ein "nützlicheres", aber immer noch kaum verarbeitetes Bild umwandelt. Hiermit wird der Pegel des dunkelsten Schwarzes und des hellsten Weiß angepasst und die Daten entsprechend neu skaliert. Sie kann den Weißabgleich auch automatisch oder anhand der in der RAW-Datei aufgezeichneten Kameraeinstellung einstellen, aber in diesem Fall habe ich darauf hingewiesen, dass dies nicht der Fall ist , da wir die geringstmögliche Verarbeitung untersuchen möchten.
Es gibt immer noch eine Eins-zu-Eins-Entsprechung zwischen Fotoseiten auf dem Sensor und Pixeln in der Ausgabe (obwohl ich diese für den Upload erneut verkleinert habe). Das sieht so aus:
Nun, dies ist offensichtlich als Bild besser erkennbar - aber wenn wir darauf zoomen (hier wird also jedes Pixel 10-fach vergrößert), sehen wir, dass es alles ist ... dotty:
Das liegt daran, dass der Sensor von einem Farbfilter-Array abgedeckt wird - winzige kleine Farbfilter, die die Größe der einzelnen Fotoseiten bestimmen. Da es sich bei meiner Kamera um eine Fujifilm-Kamera handelt, verwendet diese ein von Fujifilm als "X-Trans" bezeichnetes Muster, das folgendermaßen aussieht:
Es gibt einige interessante Details zu dem bestimmten Muster, aber insgesamt ist es nicht besonders wichtig. Die meisten Kameras verwenden heutzutage ein sogenanntes Bayer- Muster (das alle 2 × 2 statt 6 × 6 wiederholt). Beide Muster haben mehr Grünfilterseiten als rote oder blaue. Das menschliche Auge ist in diesem Bereich lichtempfindlicher. Wenn Sie daher mehr Pixel verwenden, erhalten Sie mehr Details mit weniger Rauschen.
Im obigen Beispiel ist der mittlere Bereich ein Himmelsfleck, der eine Cyan-Nuance aufweist. In RGB ist dies viel Blau und Grün ohne viel Rot. Die dunklen Punkte sind also die Rotfilterstellen - sie sind dunkel, weil dieser Bereich nicht so viel Licht in den Wellenlängen hat, die durch diesen Filter gelangen. Der diagonale Streifen in der rechten oberen Ecke ist ein dunkelgrünes Blatt. Während also alles etwas dunkel ist, können Sie das Grün sehen - die größeren 2 × 2-Blöcke mit diesem Sensormuster - sind in diesem Bereich relativ am hellsten.
Hier ist also ein 1: 1-Bereich (wenn Sie auf die Vollversion klicken, entspricht ein Pixel im Bild einem Pixel auf dem Bildschirm) des JPEG-Bereichs außerhalb der Kamera:
... und hier ist derselbe Bereich aus der obigen schnellen Graustufen-Konvertierung. Sie können die Punktierung anhand des X-Trans-Musters sehen:
Wir können das tatsächlich nehmen und die Pixel kolorieren, so dass diejenigen, die Grün im Array entsprechen, auf Ebenen von Grün anstelle von Grau, Rot zu Rot und Blau zu Blau abgebildet werden. Das gibt uns:
... oder für das Vollbild:
Der Grünton ist sehr deutlich zu erkennen, was nicht verwunderlich ist, da es 2½ × mehr grüne Pixel als rote oder blaue gibt. Jeder 3 × 3-Block hat zwei rote Pixel, zwei blaue Pixel und fünf grüne Pixel. Um dem entgegenzuwirken, habe ich ein sehr einfaches Skalierungsprogramm erstellt, das jeden dieser 3 × 3-Blöcke in ein einzelnes Pixel umwandelt. In diesem Pixel ist der grüne Kanal der Durchschnitt der fünf grünen Pixel und der rote und blaue Kanal der Durchschnitt der entsprechenden zwei roten und blauen Pixel. Das gibt uns:
... was eigentlich nicht halb so schlimm ist. Der Weißabgleich ist deaktiviert, aber da ich mich absichtlich entschlossen habe, mich nicht darauf einzustellen, ist dies keine Überraschung. Wenn Sie in einem Bildbearbeitungsprogramm auf "Automatischer Weißabgleich" klicken, wird dies kompensiert (da dies bei dcraw an erster Stelle festgelegt worden wäre):
Im Vergleich zu den ausgeklügelten Algorithmen, die in Kameras und RAW-Verarbeitungsprogrammen verwendet werden, sind die Details nicht besonders gut, aber die Grundlagen sind eindeutig vorhanden. Bessere Ansätze erzeugen Vollfarbbilder, indem die verschiedenen Werte um jedes Pixel gewichtet werden, anstatt große Blöcke zu bilden. Da sich die Farbe in Fotografien normalerweise allmählich ändert, funktioniert dies recht gut und erzeugt Bilder, bei denen das Bild vollfarbig ist, ohne die Pixelabmessungen zu verringern. Es gibt auch clevere Tricks, um Kantenartefakte, Rauschen und andere Probleme zu reduzieren. Dieser Vorgang wird als "Demosaikieren" bezeichnet, da das Muster der Farbfilter wie ein Fliesenmosaik aussieht.
Ich nehme diese Ansicht (wo ich nicht wirklich irgendwelche Entscheidungen treffen hat, und das Programm nichts automatisch intelligent tun) könnte als „Standard Standarddarstellung“ von RAW - Datei Argumente, so enden viele Internet definiert wurden. Aber es gibt keinen solchen Standard - es gibt keine solche Regel, dass diese spezielle "naive" Interpretation etwas Besonderes ist.
Und das ist nicht der einzig mögliche Ausgangspunkt. Alle realen RAW-Verarbeitungsprogramme haben ihre eigenen Vorstellungen von einem Standardstatus, der beim Laden auf eine neue RAW-Datei angewendet werden kann . Sie müssen etwas tun (sonst hätten wir das dunkle, nutzlose Ding oben in diesem Beitrag), und normalerweise tun sie etwas schlaueres als meine einfache manuelle Konvertierung, was Sinn macht, weil Sie damit sowieso bessere Ergebnisse erzielen.
Es ist ein wirklich sehr großes Zahlenraster. Alles andere wird verarbeitet.
Ich weiß, dass es von mattdm bereits sehr gut beantwortet wurde, aber ich dachte nur, dass Sie diesen Artikel vielleicht interessant finden:
Datengenetik: Funktionsweise von Digitalkameras
Falls der Link ausfällt, finden Sie hier eine Zusammenfassung:
Das menschliche Auge ist am empfindlichsten für Farben im grünen Wellenlängenbereich (was damit zusammenfällt, dass unsere Sonne im grünen Bereich am stärksten emittiert).
Das Kameraauge (Charge Coupled Device (CCD) oder komplementärer Metalloxid-Halbleiter (CMOS)) reagiert nur auf die Lichtintensität, nicht auf die Farbe.
Mit optischen Filtern werden verschiedene Wellenlängen des Lichts herausgefiltert. Zum Beispiel lässt ein Grünpassfilter nur grünes Licht durch.
In Digitalkameras verwendete optische Filter haben die Größe der einzelnen Pixelsensoren und sind in einem Raster angeordnet, um der Sensoranordnung zu entsprechen. Es werden rote, grüne und blaue Filter (ähnlich wie bei unseren Kegelzellen) verwendet. Da unsere Augen jedoch empfindlicher für Grün sind, verfügt der Bayer-Array-Filter über zwei Filter für grüne Pixel pro rotem und blauem Pixel. Das Bayer-Array hat grüne Filter, die ein schachbrettartiges Muster bilden, während rote und blaue Filter abwechselnde Reihen belegen.
Zurück zu Ihrer ursprünglichen Frage: Wie sieht eine unverarbeitete RAW-Datei aus?
Es sieht aus wie ein schwarz-weiß kariertes Gitter des Originalbildes.
Die ausgefallene Software zur Nachbearbeitung der RAW-Dateien wendet zunächst den Bayer-Filter an. Danach sieht es eher wie das eigentliche Bild aus, mit Farbe in der richtigen Intensität und an den richtigen Stellen. Es gibt jedoch immer noch Artefakte des RGB-Gitters vom Bayer-Filter, da jedes Pixel nur eine Farbe hat.
Es gibt verschiedene Methoden zum Glätten der farbcodierten RAW-Datei. Das Glätten der Pixel ähnelt jedoch dem Verwischen, sodass ein zu starkes Glätten eine schlechte Sache sein kann.
Einige der Demosaikierungsmethoden werden hier kurz beschrieben:
Nächster Nachbar: Der Wert eines Pixels (einzelne Farbe) wird auf die anderen farbigen Nachbarn angewendet und die Farben werden kombiniert. Dabei entstehen keine "neuen" Farben, sondern nur Farben, die ursprünglich vom Kamerasensor wahrgenommen wurden.
Lineare Interpolation: Zum Beispiel werden die beiden benachbarten Blauwerte gemittelt und der durchschnittliche Blauwert auf das grüne Pixel zwischen den benachbarten blauen Pixeln angewendet. Dadurch können scharfe Kanten unscharf werden.
Quadratische und kubische Interpolation: Ähnlich wie bei der linearen Interpolation, Näherungen höherer Ordnung für die Zwischenfarbe. Sie verwenden mehr Datenpunkte, um bessere Anpassungen zu generieren. linear betrachtet nur zwei, quadratisch drei und kubisch vier, um eine Zwischenfarbe zu erzeugen.
Catmull-Rom-Splines: Ähnlich wie kubisch, berücksichtigt jedoch die Steigung jedes Punkts, um die Zwischenfarbe zu erzeugen.
Halber Kosinus: Als Beispiel für eine Interpolationsmethode wird ein halber Kosinus zwischen zwei identischen Farben erstellt, zwischen denen sich eine weiche Kurve befindet. Wie im Artikel erwähnt, bietet es für Bayer-Arrays aufgrund der Anordnung der Farben jedoch keinen Vorteil. Es ist äquivalent zu linearer Interpolation, jedoch mit höherem Rechenaufwand.
High-End-Nachbearbeitungssoftware verfügt über bessere Demosaikierungsmethoden und clevere Algorithmen. Sie können beispielsweise scharfe Kanten oder starke Kontraständerungen erkennen und behalten ihre Schärfe bei, wenn sie die Farbkanäle kombinieren.
Ich denke, viele Leute stellen sich vor, dass Rohdateien einfach eine Reihe von Pixelwerten sind, die direkt aus dem Kamerasensor stammen. Es gibt Fälle, in denen dies tatsächlich der Fall ist, und Sie müssen einige Informationen zum Sensor eingeben, damit die Software das Bild interpretiert. Viele der Consumer-Kameras geben jedoch normalerweise "RAW-Dateien" aus, die tatsächlich mehr oder weniger der TIFF-Dateispezifikation entsprechen (in einigen Fällen sind die Farben möglicherweise deaktiviert). Man kann versuchen, indem man einfach die Dateierweiterung auf ".tif" ändert und sieht, was beim Öffnen der Datei passiert. Ich denke, einige von Ihnen werden ein gutes Bild sehen, aber nicht jeder, da es Unterschiede gibt, wie verschiedene Kameramarken dies lösen.
Eine TIFF-Datei anstelle einer "echten Rohdatei" ist eine gute Lösung. Eine TIFF-Datei kann 16 Bit pro Farbe haben. Das reicht für alle Kameras, die ich kenne.
Ed: Ich frage mich, warum diese Antwort abgelehnt wurde. Die Antwort ist im Wesentlichen richtig (mit dem Vorbehalt, dass Kamerahersteller keine TIFF-Strukturen verwenden müssen, aber viele von ihnen).
Bezüglich des Teils über die Anordnung von Pixeln direkt aus dem Sensor heraus ist es nicht lächerlich, so etwas zu erwarten. Denn so funktionieren viele Sensoren außerhalb des Consumer-Kameramarktes. In diesen Fällen müssen Sie eine separate Datei bereitstellen, die den Sensor beschreibt.
Übrigens wird das Wort "RAW" verwendet, weil es bedeuten soll, dass wir die unverarbeiteten Sensordaten erhalten. Es ist jedoch vernünftig, dass die Kamerahersteller ein strukturiertes Format anstelle von RAW-Dateien verwenden. Auf diese Weise muss der Fotograf die genauen Sensordaten nicht kennen.