Die Größe des Sensors spielt keine Rolle, es ist die Größe des Pixels. Allerdings neigen größere Sensoren wie bei Vollformatkameras dazu, größere Pixel zu haben.
Sie können die Größe des Pixels schätzen, indem Sie die Größe des Sensors durch die Anzahl der Pixel dividieren. Diese Berechnung ist nicht genau, da die meisten Sensoren Lücken zwischen den Pixeln aufweisen und diese Lücken sich in der Größe unterscheiden. Deshalb sage ich "schätzen".
Stellen Sie sich nun ein Pixel im Sensor als eine Box und Photonen als Kugeln vor. Je größer die Schachtel ist, desto mehr Bälle können darin enthalten sein.
Angenommen, wir haben Box A und B. Box A kann 256 Bälle enthalten und Box B kann 512 Bälle enthalten. Nun ordnen wir eine Boxmatrix vom Typ A an und werfen viele Bälle in die Luft. Wir wollen Statistiken darüber sammeln, wo die Bälle gefallen sind.
In der Mitte enthält eine der Kisten 256 Kugeln und in den Rändern enthält die Kiste ~ 20 Kugeln. Wir können nicht wissen, ob in der Mitte nur 256 oder mehr Bälle gefallen sind. Unser Maß ist auf maximal 256 Bälle begrenzt.
Wiederholen wir diesen Versuch nun aber mit Boxen vom Typ B. Jetzt sehen wir, dass die Box in der Mitte 347 Kugeln enthält und an den Rändern die Boxen ~ 20 Kugeln enthalten.
Unser Maß ist viel genauer. Genau das passiert mit den Photonen, die auf den Sensor treffen. Eine größere Oberfläche kann mehr Photonen enthalten und einen größeren Dynamikbereich messen. In unserem Beispiel ist der Dynamikumfang in der größeren Box doppelt so groß.
Wenn das Pixel voller Photonen ist, ist die Umsetzung in Farbe eine vollständig gesättigte Farbe, aber mit einer größeren Pixeloberfläche erhalten wir ein besseres Ergebnis und somit einen verbesserten Dynamikbereich.
Hier ist ein Bild, das meine Erklärung demonstrieren kann:
Zur genaueren Erläuterung möchten Sie vielleicht diesen Artikel lesen:
Dynamikbereich