Warum sind größere Sensoren bei schlechten Lichtverhältnissen besser?


23

Die Top-Antwort von Welcher Punkt und welche Aufnahmen sind bei schlechten Lichtverhältnissen gut? sagt, dass (1) ein schnelles Objektiv / eine breite Blende (2) eine angemessene ISO 400+ -Handhabung und (3) ein großer Sensor beim Zusammenbau für Aufnahmen bei schlechten Lichtverhältnissen entscheidend sind.

Das erste verstehe ich (es lässt mehr Licht herein), das zweite verstehe ich (der "Film" ist lichtempfindlicher). Entschuldigung, ich verstehe den dritten Faktor nicht.

Antworten:


21

Es ist am einfachsten, den Unterschied zu verstehen, wenn sowohl der größere als auch der kleinere Sensor die gleichen Megapixel haben. Wenn wir ein paar hypothetische Kameras haben, eine mit einem kleineren APS-C-Sensor und eine mit einem Vollbildsensor, und beide 8 Megapixel annehmen, läuft der Unterschied auf die Pixeldichte hinaus .

Ein APS-C-Sensor misst etwa 24 x 15 mm, während ein Full Frame-Sensor (FF) 36 x 24 mm misst. In Bezug auf die Fläche beträgt der APS-C-Sensor etwa 360 mm 2 und der FF 864 mm 2 . Die Berechnung der tatsächlichen Fläche eines Sensors, die aus funktionalen Pixeln besteht, kann unter realen Gesichtspunkten ziemlich komplex sein. Wir gehen daher vorerst von idealen Sensoren aus, wobei davon ausgegangen wird, dass die gesamte Fläche des Sensors funktionalen Pixeln zugeordnet ist dass diese Pixel so effizient wie möglich verwendet werden und dass alle anderen Faktoren, die das Licht beeinflussen (wie Brennweite, Blende usw.), gleich sind. Vorausgesetzt, und vorausgesetzt, dass unsere hypothetischen Kameras beide 8mp sind, dann ist klar, dass die Größe jedes Pixelsfür den APS-C-Sensor ist kleiner als die Größe jedes Pixels für den FF-Sensor. Genau genommen:

APS-C:
360 mm 2 / 8.000.000 Pixel = 0,000045
mm 2 / Pixel -> 0,000045 mm 2 · (1000 & mgr; m / mm) 2 = 45 & mgr; m 2 (Quadratmikron)
-> Quadrat (45 & mgr; m 2) = 6,7 µm

FF:
864 mm 2 / 8.000.000 Pixel = 0.000108
mm 2 / Pixel -> 0.000108 mm 2 × (1000 & mgr; m / mm) 2 = 108 & mgr; m 2 (Mikron)
-> Quadrat (108 & mgr; m 2) = 10,4 & mgr; m

In einfacheren, normalisierten Begriffen der "Pixelgröße" oder der Breite oder Höhe jedes Pixels (üblicherweise auf Photo Gear-Websites angegeben) haben wir:

APS-C-Pixelgröße = 6,7 um Pixel
FF- Pixelgröße = 10,4 um Pixel

In Bezug auf die Pixelgröße hat eine FF-8-Megapixel-Kamera 1,55x größere Pixel als eine APS-C-8-Megapixel-Kamera. Ein eindimensionaler Unterschied in der Pixelgröße sagt jedoch nicht alles aus. Pixel haben einen zweidimensionalen Bereich, über den sie Licht sammeln. Die Differenz zwischen dem Bereich jedes FF-Pixels und jedem APS-C-Pixel sagt also die ganze Geschichte aus:

108 & mgr; m 2/45 & mgr; m 2 = 2,4

Eine (idealisierte) FF-Kamera hat die 2,4-fache oder etwa 1- fache Lichtstärke einer (idealisierten) APS-C-Kamera! Aus diesem Grund ist ein größerer Sensor bei Aufnahmen bei schlechten Lichtverhältnissen vorteilhafter. Sie haben einfach eine größere Lichtsammlungsleistung für einen bestimmten Zeitraum.

Alternativ dazu kann ein größeres Pixel in einem bestimmten Zeitraum mehr Photonentreffer als ein kleineres Pixel erfassen (meine Bedeutung von „Empfindlichkeit“).


Das Beispiel und die Berechnungen setzen nun vor allem "idealisierte" Sensoren oder Sensoren voraus, die perfekt effizient sind. Reale Sensoren sind nicht idealisiert und auch nicht so einfach zu vergleichen. Bei Sensoren der realen Welt wird nicht jedes einzelne Pixel mit maximaler Effizienz in die Oberfläche geätzt. Bei teureren Sensoren ist in der Regel eine fortschrittlichere "Technologie" eingebaut, z Jede von hinten beleuchtete Pixelverdrahtung, die Spalte / Reihe bewegt, aktiviert und liest die Verdrahtung unter den lichtempfindlichen Elementen (während normale Designs diese Verdrahtung über den lichtempfindlichen Elementen belassen (und diese stören)) usw. Außerdem sind Vollbildsensoren häufig haben höhere Megapixelzahlen als kleinere Sensoren, was die Sache noch komplizierter macht.

Ein reales Beispiel für zwei tatsächliche Sensoren könnte der Vergleich des Canon 7D APS-C-Sensors mit dem Canon 5D Mark II FF-Sensor sein. Der 7D Sensor ist 18mp, während der 5D Sensor 21.1mp ist. Die meisten Sensoren sind in groben Megapixeln bewertet und haben in der Regel etwas mehr als ihre vermarktete Anzahl, da viele Randpixel für Kalibrierungszwecke verwendet werden, die durch Sensorfiltermechaniken usw. verdeckt werden. Weltpixelzahl. Der Unterschied in der Lichtsammelleistung dieser beiden aktuellen und modernen Sensoren ist:

7D APS-C: 360 mm 2 / 18.000.000 Pixel * 1.000.000 = 20 & mgr ; m 2 / Pixel
5DMII FF: 864 mm 2 / 21.100.000 Pixel * 1.000.000 = 40.947 ~ = 41 & mgr; m 2 / Pixel

41 & mgr; m 2/20 & mgr; m 2 = 2,05 ~ = 2

Die Canon 5D MkII Vollrand Brillen - Kamera verfügt über 2x die Lichtstärke der 7D APS-C - Kamera. Dies würde eine zusätzliche native Sensibilität von ungefähr einer Station bedeuten. (In Wirklichkeit haben die 5DII und 7D beide eine maximale native ISO von 6400, jedoch ist die 7D sowohl bei 3200 als auch bei 6400 etwas lauter als die 5DII und scheint sich nur bei etwa ISO 800 zu normalisieren. Siehe: http: / /the-digital-picture.com/Reviews/Canon-EOS-7D-Digital-SLR-Camera-Review.aspx ) Im Gegensatz dazu hätte ein 18-MP-FF-Sensor ungefähr das 1,17-fache der Lichtsammelleistung des 21,1-MP-FF-Sensors von die 5D MkII, da weniger Pixel über den gleichen (und größeren als APS-C) Bereich verteilt sind.


@jrista: Haben die 2-Megapixel-Kameras von 1999 (2,5 "-Sensoren?) große Pixel?
William C

2
@William: Was die Canon Pro70 angeht, vergessen Sie nicht, dass es seit 1998 viele weitere Fortschritte beim Sensordesign gegeben hat. Obwohl die Pixelgröße bei diesen Kameras größer ist, waren sie technologisch im Vergleich zu heutigen Sensoren äußerst primitiv. Zum einen ist die Pixelgröße wahrscheinlich kleiner (4nm?) ... Pixel hatten damals große Lücken und keine Mikrolinsen. Das Auslesen von CCDs war viel rauschintensiver, anfällig für Streifenbildung, Ladungsüberlauf in benachbarte Zellen usw. Die Empfindlichkeit des Pro70 war ebenfalls viel geringer, ISO 100-200 im Modus "hochauflösend" und ISO 400 im Modus "niedrigauflösend".
jrista

1
Ich sollte darauf hinweisen, dass die Einheiten auf diesen Pixelgrößen um (Mikrometer oder Mikrometer) und nicht nm (Nanometer) sein sollten. Ein 10-nm-Pixel wäre winzig - Transistoren in Computerprozessoren sind heutzutage im Allgemeinen in der Größenordnung von 45 nm breit. Ich habe die Antwort von jrista bearbeitet, um dies zu berücksichtigen.
Evan Krall

1
Tatsächlich beträgt das sichtbare Licht 380 nm bis 740 nm, sodass ein Pixel mit 10 nm buchstäblich kleiner als eine einzelne Lichtwellenlänge wäre.
Evan Krall

3
Es sollte klargestellt werden, dass das zusätzliche Lichtsammelvermögen großer Sensoren dieselbe Blende voraussetzt. Dies ist in der Praxis nicht immer möglich, da der gleiche Blickwinkel die Verwendung eines Objektivs mit einer längeren Brennweite bedeutet, das in der Regel kleinere maximale Blenden aufweist, z. B. bei Verwendung einer 200 f / 2.0 auf einem APS-C-Gehäuse Holen Sie sich eine ähnliche Lichtmenge wie mit einer 300 f / 2,8 auf Vollbild - da es keine 300 f / 2,0 gibt [derzeit in Produktion].
Matt Grum

13

Genau genommen ist es NICHT die Sensorgröße, die es besser macht, sondern die Pixelgröße.

Größere Pixel haben mehr Oberflächenbereiche, um Licht einzufangen und eine höhere Spannung aus der Freisetzung von Elektronen anzusammeln, wenn Photonen (Licht) auf die Oberfläche treffen. Das zumeist zufällige Eigenrauschen ist daher im Vergleich zu der höheren Spannung, die das Signal-Rausch-Verhältnis (S / N) erhöht, relativ geringer.

Die implizierten Daten, die Sie vermisst haben, sind, dass größere Sensoren tendenziell größere Pixel haben. Vergleichen Sie einfach eine 12-Megapixel-D3S mit einer beschnittenen 12-Megapixel-D300S. Jedes Pixel hat eine 2,25-fache Oberfläche, weshalb die D3S eine herausragende Leistung bei hohen ISO-Werten aufweist.

BEARBEITEN (24.11.2015):

Für den anonymen Downvoter-Ungläubigen gibt es ein neueres und besseres Beispiel. Sony hat zwei nahezu identische Vollformatkameras, die A7S II und die A7R II. Ihre Sensoren sind gleich groß, aber der erste hat eine Auflösung von 12 MP, während der zweite eine Auflösung von 42 MP hat. Die Leistung bei schlechten Lichtverhältnissen und der ISO-Bereich der A7S II liegen weit über dem der A7R II und erreichen ISO 409.600 gegenüber 102.400. Das ist ein Unterschied von zwei Stufen, nur für die größeren Pixel.


6
Wenn Sie auf Druckgröße oder Auflösung normalisieren, ist es die Sensorgröße, nicht die Pixelgröße, die den Unterschied ausmacht. Wenn Sie einen 24MP-APS-C-Sensor und einen 6MP-APS-C-Sensor verwenden, weist der 24MP mehr Rauschen pro Pixel auf. Wenn Sie jedoch das Bild auf 6MP verkleinern, wird das Rauschen gemittelt und Sie haben (theoretisch) die gleiche Menge an Rauschen wie die 6MP Kamerabilder. Auf der anderen Seite ist das Bildrauschen auf dem 24-Megapixel-Druck viel feiner und bei gleichem Betrachtungsabstand weniger sichtbar als beim 6-Megapixel-Druck.
Matt Grum

2
@Matt - Leider sind die meisten Leute so aufgeregt darüber, wie viele Pixel sie heutzutage haben, dass sie vergessen, die tatsächlich erstellten Abzüge miteinander zu vergleichen.
Itai

2
@Itai - Das liegt daran, dass viele Leute sie nicht drucken. Sie veröffentlichen entweder online, verwenden sie als Computerhintergründe oder zeigen sie in einem digitalen Frame an. Bedauerlicherweise scheint der Fotodruck immer seltener zu werden.
John Cavan

5
@ John Auch wenn Sie nicht drucken, wird durch Ändern der Größe eines großen hochauflösenden Bildes für das Web das Rauschen in gleichem Maße ausgeglichen!
Matt Grum

3
Es ist wichtig, zwischen Pixelrauschen und Bildrauschen zu unterscheiden. Das Rauschen pro Pixel ist stark von der Pixelgröße abhängig, das Rauschen pro Bild ist am stärksten von der Sensorgröße abhängig (die Pixelgröße hat einen sehr geringen Einfluss). Da jedoch die meisten Menschen Bilder und nicht Pixel betrachten und drucken, ist das Rauschen pro Bild ein viel relevanteres Maß, weshalb es wirklich auf die Sensorgröße ankommt.
Matt Grum,

7

Die Größe des einzelnen Pixels ist nahezu irrelevant. Das ist eine urbane Legende!

Bei zwei identischen Kameras mit einem Sensor gleicher Größe, aber unterschiedlicher Pixelanzahl (zB 2MP und 8MP) - und damit unterschiedlicher Pixelgröße. Die Lichtmenge, die auf den Sensor gelangt, hängt vom Durchmesser des Objektivs und nicht von der Pixelgröße ab. Zweifellos ist das 8-Megapixel-Bild lauter als das 2-Megapixel-Bild. Wenn Sie jedoch das 8-Megapixel-Bild auf 2-Megapixel verkleinern, erhalten Sie nahezu das gleiche Bild - mit nahezu dem gleichen Rauschpegel. Das ist einfache Mathematik. Ich sage fast, weil die Sensorlogik Größe kostet. Da Sie bei einem 8MP-Sensor die vierfache Logik wie bei einem 2MP-Sensor haben, erhalten Sie weniger lichtempfindliche Netto-Sensorfläche. Aber das kostet Sie nicht 1 Stopp (= 50%), vielleicht ein bisschen, aber nicht so viel!

Was den Unterschied ausmacht, sind die Linsen. Wenn Sie ein Bild aufgenommen haben, interessieren Sie sich nicht für Messdaten - weder für die Sensorgröße noch für die Pixelgröße oder die Brennweite. Sie möchten ein Gesicht, eine Gruppe von Menschen, ein Gebäude oder etwas anderes aus einer bestimmten Entfernung erfassen. Was Sie interessiert, ist der Blickwinkel . Ihre Brennweite hängt von der Sensorgröße und dem Blickwinkel ab. Wenn Sie einen winzigen Sensor haben, haben Sie auch eine winzige Brennweite (sagen wir einige mm). Ein Objektiv mit einer kleinen Brennweite fängt niemals viel Licht ein, da sein Durchmesser begrenzt ist. Ein größerer Sensor benötigt eine größere Brennweite, ein Objektiv mit der gleichen Lichtstärke hat einen größeren Durchmesser und fängt daher viel mehr Licht ein.

Wer braucht 10MP oder mehr, außer zum Drucken von Postern? Verkleinert auf ein paar MP sehen alle Bilder in Ordnung aus. Die Sensorgröße schränkt Ihre Bildqualität nicht direkt ein, Ihr Objektiv jedoch. Obwohl die Objektivgröße oft von der Sensorgröße abhängt (muss nicht). Aber ich habe Kameras mit kleinen Sensoren und viel MP gesehen, aber großartigen Objektiven (sagen wir größer als 2 cm Durchmesser), die großartige Bilder aufnehmen.

Ich habe vor einiger Zeit einen Artikel darüber geschrieben . Es ist auf Deutsch, ich hatte keine Zeit, es ins Englische zu übersetzen - tut mir leid. Es ist ausführlicher und erklärt einige Probleme (insbesondere das Lärmproblem) etwas ausführlicher.


Der Vollständigkeit halber muss der Vergleich zwischen Sensoren des gleichen Alters und der gleichen Technologie vorgenommen werden. Um dem "toten Bereich" des Pixellogikproblems entgegenzuwirken, wurden Mikrolinsenarrays eingeführt. Zuletzt - Ich sehe nicht, wie der Durchmesser des Objektivs die Lichtmenge beeinflusst, die auf den Sensor fällt (meinst du die Blende ??).
15.

Um es klarer zu machen: Wenn das Licht, das sich der Linse nähert, einen Kegel bildet und der FoV den Kopfwinkel der Linse bestimmt, sollte die physikalische Größe der Linse, die proportional zur Größe des Sensors ist, die einfallende Lichtmenge nicht verändern auf dem Sensor. Die Blende wirkt sich jedoch darauf aus.
15.

Natürlich, Durchmesser = Blende :) Je größer die Blende, desto mehr Licht fällt auf den Sensor. Aber man kann FoV nicht als Lichtkegel nehmen. Der relevante Lichtkegel hat seinen Ursprung am Objekt, Sie schauen direkt darauf. Je größer Ihre Blende ist, desto größer ist dieser Kegel.
Craesh

Ja, aber die Blende wird in relativen Zahlen angegeben. Die Lichtsammelfähigkeit eines 50-mm-1: 2-Objektivs auf einem 35-mm-Sensor sollte der eines ~ 35-mm-1: 2-Objektivs auf einem APS-C-Sensor entsprechen. Aus diesem Grund befindet sich die eigentliche Aperturblende nicht unbedingt an der Vorderseite des Objektivs, sondern kann sich an einer beliebigen Stelle im Lichtweg befinden.
15.

Was Sie meinen, ist die Blendenzahl oder relative Apertur, manchmal die numerische Apertur. Das ist die Brennweite geteilt durch die Blende (oder Eintrittspupille). Die Blende ist (wie ich oben schrieb) der Durchmesser der Linse. Ok, da Kameraobjektive immer komplexer werden, muss der Durchmesser des ersten Objektivs nicht unbedingt der Brennweite geteilt durch die niedrigste Blendenzahl entsprechen. Aber im Prinzip sollten sie zusammenpassen. Je größer die Blende, desto mehr Licht fällt in die Kamera. Das ist in etwa vergleichbar mit Gebäuden mit größeren / kleineren Fenstern.
Craesh

1

Die Größe eines einzelnen Pixels ist unwichtig. Mehrere kleine Pixel können mathematisch zu einem großen Pixel kombiniert werden, wobei Details gegen Sensitivität ausgetauscht werden.

Eine große Sensorkamera hat für einen bestimmten Blickwinkel ein Objektiv mit längerer Brennweite als eine kleine Sensorkamera. Diese längere Linse hat für eine gegebene Blende eine große physikalische Apertur (Öffnung in der Iris). Dies führt dazu, dass mehr Licht in das System eindringt und die bessere Leistung bei schlechten Lichtverhältnissen erzielt wird. Dies trägt auch der geringeren Schärfentiefe Rechnung.


Wenn nichts anderes angegeben ist, ignoriert diese Antwort das Lesegeräusch - mehrere kleine Pixel erzielen eine schlechtere Leistung als ein großes Pixel.
Philip Kendall

1
@PhilipKendall Abgesehen von dieser Aussage im ersten Absatz ist der Rest der Antwort korrekt. Es wird empfohlen, nur diesen Teil zu entfernen.
Matt Grum

Haben Sie einen Hinweis, der diese Behauptung stützt? Ich biete clarkvision.com/articles/digital.sensor.performance.summary
Neil P

1

Die Oberfläche des digitalen Sensors ist mit Fotoseiten bedeckt. Diese zeichnen das von der Linse projizierte Bild der Außenwelt auf. Während der Belichtung bombardieren bilderzeugende Strahlen in Form von Photonen die Oberfläche des Sensors. Die Photonentreffer sind proportional zur Helligkeit der Szene. Mit anderen Worten, Fotosites, die Photonentreffer empfangen, die hell beleuchteten Bereichen der Szene entsprechen, empfangen mehr Photonentreffer als Fotosites, die schwach beleuchteten Bildbereichen entsprechen. Wenn die Belichtung abgeschlossen ist, enthalten die Fotoseiten eine elektrische Ladung im Verhältnis zur Helligkeit der Szene. Trotzdem ist der Ladungsgrad auf allen Fotoseiten zu schwach, um nützlich zu sein, sofern er nicht verstärkt wird. Der nächste Schritt im Bilderzeugungsprozess ist das Verstärken der Ladungen.

Verstärkung ist wie das Erhöhen der Lautstärke eines Radios oder Fernsehers. Die Verstärkung erhöht die Stärke des Bildsignals, führt aber auch zu Verzerrungen in Form von statischen Aufladungen. In der digitalen Bildgebung nennen wir diese Verzerrung nicht statisch. Wir nennen es "Lärm". Das induzierte Rauschen wird tatsächlich als Rauschen mit festem Muster bezeichnet. Dies liegt daran, dass jede Photosite leicht unterschiedliche Eigenschaften aufweist. Mit anderen Worten, sie reagieren jeweils unterschiedlich auf die Verstärkung. Das Ergebnis ist, dass einige Fotoseiten, die nur wenige Photonentreffer hatten, als schwarz dargestellt werden, wenn sie als dunkelgrau oder grau dargestellt werden sollen. Dies ist ein festes Rauschmuster. Wir entschärfen dies, indem wir die Verstärkung nicht erhöhen (ISO niedrig halten) und indem wir Software in der Kamera verwenden.

Da Rauschen mit festem Muster im Allgemeinen auf eine hohe Verstärkung zurückzuführen ist, ist es naheliegend, dass mehr Photonentreffer auf einem bestimmten Foto eine höhere Ladung erzeugen und weniger Verstärkung erfordern. Die Quintessenz ist, dass größere Bildchips mit größeren Fotoseiten mit größerer Oberfläche mehr Photonentreffer während der Belichtung ermöglichen. Mehr Treffer bedeuten weniger Verstärkung. dadurch weniger verzerrung durch festes musterrauschen.


-2

Größere Sensoren sind in der Regel bei schlechten Lichtverhältnissen für die Aufnahme eines Bildes etwas schlechter. Größere Objektive sind im Allgemeinen für größere Sensoren erhältlich, und größere Objektive sind im Allgemeinen bei schlechten Lichtverhältnissen besser, wenn Sie die verringerte Schärfentiefe nicht beachten.


1
Hallo QuietOC. Willkommen bei Photo.SE. Ich hoffe du genießt die Seite. Ich habe mich gefragt, ob Sie in Ihrer Antwort vielleicht etwas kaputt gemacht haben. Es macht für mich nicht viel Sinn, wenn Sie sagen, dass große Sensoren bei schlechten Lichtverhältnissen schlechter sind, und dann sagen, dass größere Sensoren größere Linsen haben, die bei schlechten Lichtverhältnissen besser sind. Können Sie klarstellen, was Sie sagen möchten?
AJ Henderson

-2

Im Internet wird häufig behauptet, dass die von einem Sensor gesammelte Lichtmenge proportional zur Größe des Sensors ist. Das ist falsch. Bei gleichem Blickwinkel der Linse wird unabhängig von der Größe des Sensors die gleiche Lichtmenge auf den Sensor projiziert. Wenn ein Vollbildsensor und ein MFT-Sensor dieselbe Anzahl von Pixelelementen aufweisen, erkennt jedes Element unabhängig von seiner Größe dieselbe Lichtmenge. Denken Sie daran: Legen Sie ein Stück Papier hinter einen Glaskreis in die Sonne - nichts passiert. Konzentrieren Sie das Licht mit einer Lupe mit dem gleichen Durchmesser wie der oben genannte Glaskreis auf einen kleinen Bereich des Papiers, und das Papier erwärmt sich, weil die Energiedichte im Fokusbereich so viel größer ist. Gleiches gilt für Bildsensoren; kleiner Sensor = höhere Energiedichte als großer Sensor = gleiche Energie pro Flächeneinheit bei beiden Sensoren. Der Grund für größeres Rauschen bei kleineren Sensoren liegt anderswo; möglicherweise bei Hochfrequenzstörungen zwischen dicht gepackten Bildsensorelementen.


1
Ich denke, Sie müssen noch einen Schritt weiter denken. Gleiche Energie pro Flächeneinheit, ja - aber der große Sensor hat mehr Gesamtbereich. Größere Sensoren haben nicht mehr Licht pro Fläche, aber bei gleichem Bildausschnitt wird mehr Gesamtlicht gesammelt.
Mattdm

1
Eine andere Sichtweise: Wenn wir optisch oder digital vergrößern, halten wir die Belichtung konstant, oder? Wir erwarten, dass ein 12 × 18-Druck dieselbe Helligkeit und scheinbare Belichtung aufweist wie ein 4 × 6-Druck. Um dies zu erreichen, müssen wir jedoch die Helligkeit der Flächeneinheit beibehalten, auch wenn der Ausdruck weiter vergrößert wird. So hat der größere Druck mehr "hinzugefügtes" Licht. Wenn Sie mit einem größeren Original beginnen, müssen Sie weniger multiplizieren - also weniger offensichtliches Rauschen (oder im Übrigen Filmkörnung).
Mattdm

Vielen Dank. Ich habe nach einem Forum gesucht, das eine vernünftige Ansicht der Sensorgröße und -auflösung bietet. Zum vernünftigen Lesen "stimmt mir zu". Lassen Sie mich jetzt meinen eigenen Kommentar hinzufügen. Wenn im Wesentlichen die Photonendichte aus derselben Szene auf einen Sensor trifft, empfangen sowohl das große als auch das kleine Gerät die gleiche Anzahl von Photonen. Es kann sein, dass der kleinere Sensor an diesem Punkt aufgrund seines niedrigeren Dynamikbereichs ein besseres Rauschsignal aufweist. Der verfügbare Dynamikbereich wird besser optimiert. Größere Sensoren mit größeren Bildstellen angesichts der richtigen Beleuchtungsbedingungen können mehr Photonen aufgrund ihrer w sammeln
Peter Mason
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.