Wie fange ich die Szene genau so ein, wie meine Augen es sehen können?


30

Welche Einstellungen meiner DSLR-Kamera emulieren die Szene genau so, wie ich mit bloßen Augen sehen kann?

Ich denke, es ist nicht möglich, den Kontrast und die Farben genau so zu erhalten, wie meine Augen sehen können, und er kann von Person zu Person variieren. Ich interessiere mich also mehr für die Brennweite des Objektivs. Wenn jemand über die Brennweite hinaus mehr Einblick geben kann, würde ich mich freuen, es zu wissen.

Wenn ich zum Beispiel am Meer stehe und den Sonnenaufgang einfangen möchte, sollte dies die Brennweite sein, damit ich den Blickwinkel abdecken kann, den meine Augen sehen können, und damit die Größe der Objekte auf dem Foto genau wie meine Augen es wahrnehmen?

Meine Kamera ist eine APS-C Canon EOS 1000D. Ich habe ein Sigma von 50 mm, 1,8 mm und 70 mm, 300 mm. Kann es mit diesem Objektiv erreicht werden? Bis jetzt habe ich nicht erreicht oder war mit dem, was ich sehe und was ich bekomme, zufrieden.


Haben Sie ein Vollbild (FX) von Crop (DX, 1.6x) DSLR?
Philippe Lavoie

sicher, ich werde meine Frage bearbeiten, diesen Faktor vergessen. Ich habe Canon EOS 1000D, das ist kein Vollbild. Crop - Faktor von 1,6x
saß

1
Was ist mit den Medien, die das Bild in die Augen anderer bringen sollen? Groß oder klein? Bildschirm oder Papier? ...
mouviciel

Interessant - dies endete als allgemeinere Form von photo.stackexchange.com/questions/8043/… in dem Sinne, dass das Gehirn unserer Zuschauer eine große Rolle bei der Wahrnehmung von Fotos spielt. Tolle Antworten hier.
D. Lambert

1
@mouviviel - Medien sollten meine Augen liefern nach der Aufnahme, über, Bildschirm und Papier Wenn Bildschirm kalibriert ist richtig ich denke , wir fast die gleiche Sache auf dem Bildschirm in Papier erwarten können, im Grunde Bildschirm und Papier beide: D
Sa

Antworten:


38

Nun, ich hasse es, es dir zu brechen, aber du kannst deine Augen nicht genau nachahmen. Es gibt ein paar Gründe, lassen Sie mich erklären.

  1. Menschen sehen in der zentralen Fovia (dem mittleren Teil unserer Augen) eine viel höhere Auflösung als in Randnähe. Kameras haben überall eine einheitliche Auflösung.
  2. Der Dynamikumfang wird von Kamera zu Mensch unterschiedlich gehandhabt. Ich kann es nicht erklären, aber eine Szene scheint für einen Menschen einen dynamischeren Bereich zu haben als eine Kamera, obwohl eine Kamera technisch gesehen einen dynamischeren Bereich hat.
  3. Menschen sehen in 3 Dimensionen.
  4. Menschen ändern ihre Brennpunkte sehr schnell, bis wir die unscharfen Bereiche der meisten Szenen nicht mehr bemerken.
  5. Die Form des menschlichen Sehens unterscheidet sich stark von einer Fotografie. Die Fotografien sind in der Regel rechteckig und haben eine gewisse Größe. Das menschliche Sehen ist eher gekrümmt, obwohl es schwierig ist, anhand der Art und Weise, wie unser Gehirn die Signale verwaltet, zu quantifizieren.

Lassen Sie mich trotzdem sagen, dass es davon abhängt, ob Sie sich auf einen bestimmten Bereich oder auf die größere Szene konzentrieren möchten. Wenn Sie den spezifischen Bereich wünschen, sollten Sie ungefähr 150mm oder so gehen. Bei einer dramatischen Landschaft wird eher eine 24 Ihr gesamtes Sichtfeld erfassen. Eine häufig genannte Zahl ist 50 mm, mit der Sie den höher auflösenden Teil Ihrer Augen und dann einige, aber nicht das gesamte Feld sehen können. Dies ist normalerweise ein guter Kompromiss. (Bei alledem wird davon ausgegangen, dass Sie eine vollformatige Kamera haben. Wenn es sich bei Ihrer um einen Erntesensor handelt, teilen Sie dies bitte durch den entsprechenden Faktor.)


Ok, ich war nicht zufrieden mit dieser Situation, in der ich ein Bild des Sonnenaufgangs mit 50mm 1,8 gemacht habe. Die Größe der Sonne war im Bild viel kleiner als in der Realität. Also denke ich, dass ich meine Brennweite anpassen muss 90-100mm, um die richtige Größe zu erhalten. Vielen Dank.
sat

1
Wie gesagt, das Auge hat verschiedene Empfindlichkeitsbereiche. Es ist ein bisschen schade, dass man das FOV und die Wahrnehmung nicht wirklich verstehen kann. Es ist wirklich erstaunlich, was unsere Augen und unser Verstand tun können, also ...
PearsonArtPhoto

1
Sie haben eines vergessen: Das menschliche Auge hat ein anderes Sichtfeld als die meisten Kameras (möglicherweise sind hochspezialisierte Kameras vorhanden). Wir sehen nicht in 4/3 oder 2/3 Formfaktor.
28.

Auch das Bild, das Sie in Ihrem Gehirn "sehen", durchläuft im Grunde genommen einen Stapel von 1000 Filtern, Postprozessoren und eine anständige Photoshop-Sitzung.
Hobbamok

36

Das Auge bewegt sich

Ich möchte zur Antwort von @Pearsonartphoto hinzufügen, dass menschliche Augen keine Standbildszene sehen, sondern diese kontinuierlich scannen, ihre „Blende“ anpassen und beim Scannen neu fokussieren. Dank dieses Scanvorgangs können wir also Folgendes erkennen :

  • der höhere Dynamikbereich,
  • eine unendliche Schärfentiefe,
  • eine breitere Szene als Ganzes,
  • viel detaillierter als eine "auflösung" des stillen auges sehen kann.

Was wir also "sehen", ist das Ergebnis der "Nachbearbeitung" eines Bilderstroms, 30-70 Bilder pro Sekunde. Siehe Augenbewegung .

Die Kamera steht still

Die Kamera kann nicht simulieren, was das Auge sieht, da ein großer Teil dessen, was das Auge sieht, unser Prozess des Sehens und Denkens über die Szene ist und vieles davon im Gehirn geschieht, nicht nur im Auge.

Sie können aber auch Fotos machen, die bei dem Betrachter einen bestimmten, gewünschten Eindruck hinterlassen. Und hier beginnt die Kunst , weil man durch ein flaches farbiges Objekt bei einem anderen Menschen bestimmte Gefühle hervorrufen muss.

Mehrere Bildtechniken

PS Einige populäre Techniken in der Digitalfotografie versuchen tatsächlich, mehr aus mehreren aufeinanderfolgenden Bildern wiederherzustellen, als es das menschliche Sehen tut. Diese Techniken umfassen:

  • Panorama-Stitching (Mosaikieren mehrerer Bilder, um einen größeren Blickwinkel abzudecken und die Auflösung zu erhöhen),
  • Belichtungsfusion und HDR-Techniken (Stapeln mehrerer Bilder, um den Dynamikumfang zu erhöhen),
  • Fokusstapelung (Stapeln mehrerer Bilder, um die Schärfentiefe zu erhöhen) (mehr) .

Sie haben es gut zusammengefasst, die mit Abstand beste Antwort.
Labnut

27

Ein Bild genau so aufnehmen, wie Ihre Augen es sehen? Kein Problem, aber es ist nicht alles in der Kamera, Sie müssen einige Arbeiten in der Post erledigen. Und es ist mit ziemlicher Sicherheit nicht das, was Sie wirklich wollen.

Zunächst benötigen Sie ein kreisförmiges Fischaugenobjektiv, das schlecht vignettiert, um die Bilder aufzunehmen. (Tatsächlich benötigen Sie mehrere Bilder und ein Betrachtungssystem mit integrierter Blickverfolgung, das Bilder umkehren kann, wenn sich Ihr Auge bewegt.) Niemand stellt ein Objektiv her, das so schlecht funktioniert wie das menschliche Auge (zumindest macht niemand so etwas.) absichtlich und bietet es zum Verkauf als fotografisches Objektiv an), der Rest muss also auf dem Postweg geschehen.

Zuerst müssen Sie das Bild oben abschneiden. Wo genau wird variieren, aber das ist, wo Ihre Augenbrauen in die Quere kommen. Dann müssen Sie einen Kantensucher ausführen - in Photoshop funktioniert der Relieffilter Sketch-> Bas gut. Legen Sie das Ergebnis auf eine separate Ebene, um es zu multiplizieren. Sie werden es später zusammenführen. Sie können die Ebene jedoch vorerst ausblenden.

Wählen Sie als Nächstes einen Bereich in der Mitte des Bildes aus - ungefähr ein oder zwei Prozent des gesamten Bildes - und verschieben Sie die Auswahl um zwanzig oder dreißig Pixel. Kopieren Sie diese Auswahl dann auf eine separate Ebene.

Führen Sie nun einen starken Unschärfefilter über das Originalbild aus. Sie möchten die Farben sehen können, aber keine wirklichen Details. Führen Sie die Basrelief-Ebene auf das unscharfe Bild. Verschmelze dann die Ebene, die du aus der Auswahl erstellt hast. Sie sollten jetzt ein kreisförmiges Bild mit abgeschnittenen, schlecht definierten Rändern, keinem echten Bildausschnitt über dem größten Teil des Bildes, aber mit den Rändern der Originalelemente, die nach Aufmerksamkeit schreien, und einem kleinen Bereich in der Mitte (ungefähr zehn Prozent der Breite und Höhe) in relativ scharfem Fokus.

Du bist noch nicht fertig. Sie müssen eine kreisförmige Auswahl erstellen, die ungefähr halb so groß ist wie der fokussierte Bereich, direkt unterhalb und an einer Seite, und den Fokusbereich leicht überlappen. Vervollständige die Auswahl und fülle sie mit Schwarz.

Erstellen Sie eine neue Überlagerungsebene, füllen Sie sie mit 50% Grau und fügen Sie etwa zehn Prozent monochromes Gaußsches Rauschen hinzu, um eine gute Unschärfe zu erzielen. Führen Sie das nach unten zusammen.

Sie haben jetzt ein Bild, das in etwa dem entspricht, was Sie tatsächlich mit festem Auge sehen. Tatsächlich ist es viel weniger verzerrt als das, was Ihr Auge sieht, aber das Hinzufügen all der kleinen Windungen, die aufgrund der unterschiedlichen Dicke der Flüssigkeiten auf der Oberfläche des Auges zu einem bestimmten Zeitpunkt auftreten, ist für diese Übung eine Menge Mühe .

Alles andere, von dem du denkst, dass du es siehst, kommt von deinem Gehirn, nicht von deinem Auge. Dieser schwarze Fleck? Sie haben eines in jedem Auge und Ihr Gehirn füllt die fehlenden Daten aus. Das weite Meer der Details? Panorama-Stitching im visuellen Kortex. Schärfe jeglicher Art? Mittelung von Mehrfachbelichtungen. Wir haben auch ein automatisches Blendensystem und "ISO-Shifting" im laufenden Betrieb, je nachdem, worauf wir gerade achten (unser statischer Dynamikbereich unterscheidet sich nicht allzu sehr von dem, was die Kamera aufzeichnet - wir machen HDR). in der Post ").

Sie möchten wahrscheinlich erfassen, was Ihr Verstand sieht, nicht was Ihre Augen sehen, und das ist für jedes Bild anders. Deshalb stellen sie all diese verschiedenen Objektive her. Manchmal möchten Sie ein riesiges Panorama zeigen, weil Sie es gesehen haben . Aber selbst in einer riesigen Landschaft mag es nur ein kleines Wäldchen gewesen sein, das Ihre Aufmerksamkeit erregt hat. Ein Porträt kann eine enge Nahaufnahme sein, oder es kann die gesamte Umgebung des Darstellers einbeziehen. Auch hier kommt es darauf an, was Sie in Ihrem geistigen Auge gesehen haben, und nicht darauf, was Sie mit Ihrem tatsächlichen Auge gesehen haben. Dasselbe gilt für die Schärfentiefe - haben Sie die gesamte Szene betrachtet oder nur ein kleines Detail in einem größeren Kontext betrachtet?

Mit anderen Worten, dies ist keine Frage, die direkt beantwortet werden kann. Die Antwort ist und bleibt "es kommt darauf an". Experiment. Trainieren. Machen Sie sich mit Ihren Werkzeugen und deren Funktionen vertraut, und schließlich wissen Sie genau, was Sie tun müssen, um nicht das zu erfassen, was tatsächlich vorhanden war, sondern das, was Sie gesehen haben. Ansel Adams nannte es eine Vorschau , und er verbrachte viel Zeit damit, ein formales System zu entwickeln, das es ihm ermöglichte, auf Film festzuhalten, was er mit seinem Verstand und seinem Herzen sah, nicht mit seinen Augen.


4
Während dies vielleicht einen kleinen Umschwung auslöst, ist es eine schöne und wunderbare Antwort. Ein dickes Lob.
Lindes

1
Wow, ich habe mich verlaufen, als ich das Photoshop-Zeug gelesen habe. Am Ende war es ein guter Rat :) TY.
sat

2
Was, keine Floater ?!
Junkyardsparkle

Der Photoshop-Prozess ist eine hervorragende Beschreibung der schlechten Bildqualität, die das Auge tatsächlich sieht. Aber es ist nicht fixiert und das Gehirn fügt alles zusammen.
Doug

10

Eines der Probleme beim Versuch, das menschliche Sehen auf einem Foto nachzuahmen, ist das Sichtfeld .

Die Perspektive, die wir sehen und die eine Funktion der relativen Brennweite ist, entspricht in etwa der Perspektive eines 50-mm-Objektivs bei einem Vollbildsensor oder 32-mm-Objektiv bei einem DX-Sensor, aber dann ist das Problem nicht die Perspektive, sondern das Sichtfeld. Stellen Sie sich das Bild vor, das Sie bei 50 mm sehen, und erweitern Sie nun das Sichtfeld wie bei einer Panoramaaufnahme.

Wenn Sie ein "menschliches" Foto machen, sehen Sie fast 180 Grad horizontal und ungefähr 120 Grad vertikal, behalten jedoch die Perspektive der mittleren Brennweite bei.

Nehmen Sie dieses grobe Diagramm des Auges (grün) und einen digitalen SLR-Sensor (blau). Sie werden feststellen, dass die Brennweite für beide Medien genau gleich ist, ungefähr 17 mm, aber der Winkel, um den sich die Netzhaut dreht, ist viel größer als der des Sensors.

Sichtfeld des Auges

Es sieht ein größeres Sichtfeld bei gleicher Brennweite. Aus diesem Grund entspricht ein DX-Sensor einem 1,6-mal kleineren Sichtfeld als der 35-mm-Sensor, bei gleicher Brennweite ändert sich die Perspektive jedoch nicht. Es erfasst einfach einen kleineren Bereich der Szene.

Panoramen sind eine Möglichkeit, das Sichtfeld des menschlichen Auges zu emulieren und dabei die flachere und realistischere Perspektive beizubehalten.


Das nächste Problem ist der Dynamikbereich . Ein durchschnittlicher Dynamikbereich digitaler Spiegelreflexsensoren beträgt ungefähr 11 Lichtblenden. Dies bedeutet, dass der Unterschied zwischen 11 Verdopplungen der Lichtintensität erfasst werden kann . 1, 2, 4, 8, 16, 32 usw. Wie genau ist eine andere Geschichte. 14-Bit ist besser als 12 und 12 ist besser als 8 Bit, aber Analog ist noch besser als 14-Bit Digital.

Ein Full-Frame-Profikörper, der an einem guten Tag bis zu 13 Zwischenstopps einfangen kann, gilt nach modernen Maßstäben als beeindruckend, kommt dem menschlichen Auge jedoch nicht einmal nahe.

Das menschliche Auge ist manchmal in der Lage, den Unterschied zwischen ungefähr 18 bis 20 Intensitätsstufen in einer sehr groben Messung zu unterscheiden. Dies bedeutet, dass der schwarze Schatten, den Ihre Kamera sieht, für das menschliche Auge ziemlich leicht im Detail gesehen werden kann, während gleichzeitig helle Details in der Szene sichtbar sind . Hier sinkt aktuell der Dynamikumfang eines digitalen Sensors.

Es kann einfach nicht gleichzeitig solch wild unterschiedliche Lichtintensitäten unterscheiden. Manchmal ist es so schlimm , dass Sie haben für die Highlights entweder aussetzen oder aussetzen für den Schatten und saugen sie auf, auch wenn Sie Ihre eigenen Augen beide gut sehen können.

HDR ist eine Methode, um den dynamischen Bereich des menschlichen Auges zu emulieren, ist jedoch immer noch durch die Medien, auf denen es betrachtet wird, sowie die Art und Weise, wie es verarbeitet wird, begrenzt.


Ein weiteres Problem ist, dass, während es für uns ein Spaziergang im Park ist, wie unser Gehirn darauf ausgelegt ist, so zu sehen, nur die Fovea sehr detailliert sieht. Das periphere Sehen ist nicht sehr detailliert und dient in erster Linie dazu, Bewegungen zu erkennen, die uns helfen können, zu erkennen, dass um uns herum etwas passiert, oder uns vor Gefahren zu warnen und die Kampf- oder Fluchtreaktion auszulösen.

Wenn Sie dies auf einem Foto simulieren würden, hätte das Bild einen kleinen Fokusbereich in der Mitte und das Bild würde schnell unscharf, wenn Sie sich den Rändern nähern.


Es gibt andere Themen, die ich entweder nicht angesprochen habe oder die ich nicht über mich selbst weiß, aber ich denke am Ende des Tages, ein Foto soll nicht wirklich die menschliche Erfahrung "nachahmen", es soll einen Moment festhalten, um Erstellen Sie eine Antwort oder eine Emotion, oder um Erinnerungen festzuhalten, oder um einen großen Lohn von einem Kunden zu erhalten :)


Du meinst also, dass das Objektivbaby dem, was wir sehen, eine bessere Wirkung verleiht oder sagt? weil es an einer stelle fokussiert und andere dinge unscharf werden?
sat

Was meinst du?
Nick Bedford

1
Das nehme ich an. Ich denke, die eigentliche Frage ist, ob Sie es tun sollten oder nicht. Reine Simulation würde bedeuten, dass Sie den äußeren Bereich des Fotos verwischen würden, aber wenn Sie es geschafft hätten, das endgültige Foto so zu vergrößern, dass es zu Ihrer Vision passt, dann ... würde Ihre Vision die Unschärfe aufheben. Wenn Sie wissen, was ich meine.
Nick Bedford

okay. Wird ein wenig beim nächsten Mal experimentieren :)
saß

0

Ihr Gehirn kann sich an die Signale anpassen, die von den lichtempfindlichen Zellen in Ihrem Auge kommen, so dass Sie einen höheren Dynamikbereich für Ihre Augen haben können, als dies von Ihren Kamerazellen möglich ist. Solange es keine intelligenten Kamerasensoren gibt, die einen ausschalten können, der ausreichend beleuchtet ist, werden Sie Schwierigkeiten haben, die von Ihnen benötigte Reichweite zu erreichen.

Ich würde vorschlagen, eine HDR aus einer Szene zu machen, aber die Unter- und Überbelichtung nur leicht zu verschieben, damit sie immer noch natürlich aussieht.


Nun, es gibt eine Hervorhebungs-Tonpriorität (wie Canon es nennt; wahrscheinlich gibt es sie auch mit verschiedenen Namen für verschiedene Marken), aber es ist nicht genau das, wovon Sie hier sprechen. Ich würde einen Sensor lieben, der nach Erreichen einer bestimmten Belichtung eine logarithmische Antwortkurve pro
Fotosite aufweist

0

Warum setzen Sie nicht einfach Ihr 70-200mm Objektiv auf und zoomen Sie, bis das Bild auf Ihrem LCD die gleiche Größe hat wie Ihre Augenansicht ohne Kamera? Das Objektiv liest dann, bei welcher Brennweite Sie sich befinden. Oder benutzen Sie einfach den Sucher. Wenn Sie die tatsächliche Ansicht, die LCD-Ansicht und die Sucheransicht genau studieren, gelangen Sie dorthin, benötigen jedoch ein Stativ und mindestens 10 Minuten. Möglicherweise ist Ihr Setup nur in bestimmten Entfernungen ausgezeichnet. Die 3 Ansichten stimmen zufriedenstellend überein. An diesem Punkt können Sie einen Objektivkauf erwägen. Eine andere Sache nach der Skalenanpassung ist die Tonanpassung an Ihr Auge. Kameras saugen im Allgemeinen daran, Schatten zu sehen. Es scheint eine gute Idee zu sein, einen neutralen Abdunklungsfilter und einige Stufen hinzuzufügen, um dies zu kompensieren, mit dem Ziel, die Schatten aufzuhellen und gleichzeitig die Glanzlichter zu zähmen. Dies könnte dazu führen, dass die Highlights nicht so "ausgeblasen" werden während die Schatten vollständig schwarz sind, wenn die Belichtung einfach erhöht wurde. Ein UV-Filter scheint ebenfalls wichtig zu sein. Danach kann man die Verarbeitungsfunktionen in der Kamera anpassen, um sie zu optimieren und diese Einstellungen als Standardeinstellungen festzulegen. Ich erwähne hier nur, was ich versuchen würde. Hoffe das hilft.


Das Hauptproblem dabei ist, dass das Erscheinungsbild eines Bildes nicht nur durch Brennweite und Farbe bestimmt wird, sondern auch durch Betrachtungsabstand, Medien und Betrachtungsbedingungen. Wie in einigen Antworten bereits erwähnt, kann eine Kamera nicht das reproduzieren, was vom Auge gesehen wird.
Verdammte Wahrheiten
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.