Wer entscheidet, welche Pixel wie viel Gewinn bekommen? Vieles, was im menschlichen visuellen System vor sich geht, geschieht im Kortex, nicht im Auge, und hängt davon ab, was wir aufgrund einer Kombination aus intellektueller Entscheidung und dem (etwas überschreibbaren) instinktiven Streben nach Selbsterhaltung für wichtig halten . Während es in gewissem Sinne wahr ist, dass wir sehen, was da ist, ist es in gleichem Sinne wahr, dass wir sehen, was wir sehen wollen (oder müssen).
Es wäre fast soweitEs ist trivial, einen Sensor mit relativ geringer Pixeldichte mit großen Fotoseiten zu erstellen, die einen enormen Dynamikbereich ermöglichen, und (unter der Annahme einer CCD-Technologie, da die aktuelle CMOS-Sensortechnologie nicht auf diese Weise funktionieren kann) zusätzlich einen elektronischen Verschluss pro Pixel der mechanische Verschluss. Also, was würde dir das bringen? Ein flaches Bild mit viel Bittiefe und sehr geringem lokalen Kontrast (wenn die gesamte Bittiefe unverändert für die Anzeige oder den Druck konvertiert wird) sowie eine Anzahl von Pixeln, die durch die Sensorsättigung fast, aber nicht vollständig abgeschnitten werden ( obwohl sie tatsächlich durch die begrenzende Wirkung des elektronischen Verschlusses kurz vor dem Sättigungspunkt abgeschnitten werden). Nehmen wir zum Zwecke der Argumentation an, dass dieser Sensor und der zugehörige Computer die Schnittdaten aufzeichnen könnten (der Grund, warum die Aufzeichnung bei diesem Gefühl gestoppt wurde, Dies könnte so einfach sein, wie die tatsächliche Expositionsdauer an diesem Ort aufzuzeichnen. Das würde es der Elektronik der Kamera ermöglichen, die Zahlen zu rekonstruieren, wenn die Fotoseite bis zum Schlusspfiff im Spiel hätte bleiben können. Jetzt haben wir ein noch flacheres Bild mit größerer Bittiefe. Und wo ziehst du die Grenze? 32 Bits? 64?
Jetzt kommt der schwierige Teil - die Umwandlung dieser flachen Bilddaten mit hohem Dynamikbereich in ein überzeugendes Foto. Der einfachste Ansatz besteht darin, die acht Bits (oder was auch immer die Ausgabebittiefe sein würde) zu nehmen, die das primäre gemessene Bild darstellen, und den Rest wegzuwerfen. Es wäre wahrscheinlich nicht viel schwieriger, die Daten an eine S-Kurve anzupassen und die extremen Schatten und / oder Lichter zu komprimieren - was mehr oder weniger dem entspricht, was die erweiterten Einstellungen für den Dynamikbereich bei neueren Kameras bereits bewirken. Es sind jedoch nur so viele Ausgabebits pro Pixel verfügbar, und die meisten erweiterten Hervorhebungswerte werden auf Weiß aufgerundet (oder mindestens eine Mischung aus 254 und 255). Sie haben also sehr wenig gewonnen, indem Sie das System dramatisch kompliziert haben.
Es gibt jedoch noch eine offene Option - die selektive Bereichszuordnung. Warum nicht den Himmel oder nur die Wolken an diesem Himmel in den Hintergrund bringen, um Details beizubehalten und gleichzeitig den gewünschten Kontrast im Vordergrund beizubehalten? Hier lebt das schwierige Problem. Was ist wichtig? Sollte die Kamera für Sie entscheiden? Wenn die Kamera entscheidet, dann haben wir einen großen Fortschritt in der Bildverarbeitung und der künstlichen Intelligenz, um uns zuerst zu bewegen. Wenn nicht, möchten Sie dann wirklich für jedes Bild, das Sie aufnehmen, genau diese Entscheidung nach der Aufnahme treffen? Ja, ich weiß, dass es einige Fototechniker geben wird, die wirklich so aktiv sein wollen, aber können wir akzeptieren, dass es sich um einen pathologischen Zustand handelt und dass Profis, die sich für die Bearbeitungszeit interessieren, und die große Mehrheit der Verbraucher da sind nicht so?
Sie benötigen also einen neuen Sensor, eine erheblich kompliziertere Elektronik rund um den Sensor, eine riesige Bilddatei für projizierte Rohdaten (was größere Karten und längere Schreibzeiten / langsamere Bildraten erfordert), um Daten zu sammeln, die am häufigsten weggeworfen werden von der Zeit, so dass Sie gelegentlich einmalige HDR-Bilder aufnehmen können, die viel menschliches Eingreifen in der Post erfordern (oder einen großen Sprung in MV / AI). Sie könnten wahrscheinlich ein paar davon verkaufen, aber ich würde erwarten, dass der Markt dem Mittelformatmarkt sehr viel ähnlicher ist als dem bestehenden 35-mm / APS-C-Markt. Das heißt, Sie würden an eine ausgewählte Gruppe von hochhackigen Fotografen verkaufen, die entweder aus beruflichen Gründen oder zur Erfüllung ihrer künstlerischen Vision die Fähigkeiten tatsächlich benötigen, und an einige, die nur einen Kick aus der Nachbearbeitung ziehen, um zu zahlen die Technologiesteuer.