Warum gibt es noch keine hochdynamischen Sensoren, die in jedem Bildbereich die richtige Belichtung haben?
Warum gibt es noch keine hochdynamischen Sensoren, die in jedem Bildbereich die richtige Belichtung haben?
Antworten:
Es gibt bereits Kameras mit einem DR, der sofort und insgesamt größer als das menschliche Auge ist. Der Dynamikumfang des menschlichen Auges ist nicht so groß, wie die meisten Menschen glauben. Soweit ich mich erinnere, sind es ungefähr 12 bis 16 EVs, was ungefähr dem Niveau einer modernen DSLR entspricht.
Der Hauptunterschied besteht darin, dass wir eine extrem natürliche Blendensteuerung haben, die sich an verschiedene Teile des Bildes anpasst. Tatsächlich stapelt unser Gehirn die Bilder automatisch für uns. Wenn wir den hellen Teil einer Szene betrachten, schrumpfen unsere Pupillen und wir sehen das Detail des hellen Teils. Wenn wir uns auf den dunkleren Teil konzentrieren, öffnen sich unsere Pupillen schnell und wir sehen das Detail des dunklen Teils. Unser Gehirn weiß, wie der vorherige Teil ausgesehen hat, und so bemerken wir die Veränderung unserer peripheren Sicht nicht, aber wir sehen nicht so viele Details, in denen wir nicht mehr fokussiert sind.
In ähnlicher Weise gibt es auch für den gesamten Bereich des menschlichen Sehens Spezialkameras, die viel dunkler als wir werden und dennoch sehen können, insbesondere in Farbe. Sie sind derzeit einfach zu teuer für die breite Öffentlichkeit, da sie sehr hochwertige Materialien und Konstruktionen erfordern Holen Sie sich das Grundrauschen super niedrig. Es gibt auch Sensoren, die in der Lage sind, sehr helle Objekte zu betrachten, deren Betrachtung für Menschen schmerzhaft wäre.
Ein großes Problem ist, dass das Betrachten mit Ihren Augen sehr viel anders ist als das Aufnehmen eines Bildes - ein Bild muss alle Informationen enthalten, die der Betrachter möglicherweise sieht, aber normales Sehen ist ein aktiver Prozess, der die Bewegung der Augen, die Neufokussierung und die Erweiterung der Pupillen nach sich zieht zu den Objekten, die wir betrachten. Wenn Sie also erfassen möchten, was das Auge sieht, müssen Sie im Wesentlichen alle Einstellungen erfassen, die das Auge möglicherweise verwendet.
Ihre Frage bezieht sich auf den Dynamikbereich, aber das gleiche Problem tritt mit visuellen Details und Fokus auf. Ein "lebensäquivalentes" Bild benötigt viel, viel mehr Pixel, als Ihr Auge tatsächlich erfassen kann, da die Augenauflösung sehr ungleich ist und ein Bild nur einen einzelnen kleinen Punkt mit der hochauflösenden Mitte der Netzhaut betrachtet Weitere Details sind verfügbar, da Sie Ihre Augen bewegen werden. Filme müssen einen einzigen Fokus wählen, während ein Mensch ein "einzelnes Bild" mit größerer Tiefe betrachten kann, indem er die Augen schnell neu fokussiert und / oder sie für eine korrekte binokulare Sicht in verschiedenen beabsichtigten Bereichen bewegt (z. B. Blick auf die Oberfläche eines Fensters oder durch dieses Fenster) ), etc.
Ein Teil der Lösung ist genau das: Wenn Sie eine einzelne Kamera mehrmals schnell (oder mehrere Kameras) verwenden, um eine Vielzahl von Bildern mit unterschiedlichen Einstellungen aufzunehmen und diese anschließend zusammenzuführen, ist HDR das offensichtlichste Beispiel - genau wie unser Auge sieht es aktiv aus an verschiedenen Orten mit unterschiedlichen "Einstellungen" und erst danach fügt Ihr Gehirn alles zu einem zusammenhängenden Bild oder Film zusammen. Die tatsächlichen "Bilder", die von unseren Augen aufgenommen werden, sind schon schlechter als gute Kameras, einfach ist die mentale Kombination von ihnen nett.
Ihr geistiges Bild ist nicht nur das Produkt der Netzhaut, sondern auch das Zusammenspiel mit allen anderen Komponenten des Sehens, einschließlich der Pupille und natürlich Ihres Gehirns. Was Ihnen als "ein Bild" erscheint, ist in der Tat das Ergebnis schneller Anpassungen und Informationsverarbeitung und nicht ein einziger Schnappschuss.
Weitere Informationen zu diesem Thema finden Sie hier .
Es ist durchaus möglich, einen Lichtsensor mit logarithmischen Eigenschaften herzustellen - ein solcher Sensor hätte einen unglaublichen Dynamikbereich auf Kosten einer begrenzten Auflösung für eine bestimmte Belichtung. Um beides zu erreichen, ist ein hochauflösender ADC erforderlich. Bei der CT-Bildgebung werden in der Regel 24 Bit linear verwendet. Anschließend wird der Logarithmus nach der Offset-Anpassung verwendet, um das CT-Bild zu erstellen.
Ein Sensor, der sowohl die Belichtungssteuerung (Integrationszeit - denken Sie an die Verschlusszeit) als auch die Änderung der Lichtsammlungseffizienz (denken Sie an die Blendenzahl) ausführt, bietet eine noch größere Flexibilität.
Der maximale Dynamikbereich wird in der Regel durch das Ausleserauschen begrenzt - wenn Sie die akkumulierte Ladung auslesen, tritt ein Fehler auf - im Vergleich zum größten Signal, das die Elektronik unterstützen kann. Wie gesagt - 24 Bit sind in der medizinischen Bildgebung weit verbreitet und das ist besser als 1 Teil von 10 Millionen. Dies ist ein viel höherer dynamischer Bereich als die Netzhaut bei einer bestimmten Belichtung. Dies ist jedoch bei herkömmlichen Kameras nicht üblich, da das Auge diese Details im Bild nicht erkennen kann - und die Auflösung geht zu Lasten der Geschwindigkeit.