Megapixel-Rennen überflüssig?


15

Haben wir den Punkt erreicht, an dem es beim Megapixel-Rennen mehr um das Rennen geht, mehr als um den anderen, als um die Bildqualität?

Noch vor ein paar Jahren wurde 6MP als die optimale Anzahl von MP angepriesen, die Sie für wirklich gute Bilder benötigen.

Aber in letzter Zeit sind MP, wie die meisten Technologien, sprunghaft über einander gesprungen.

Nikon hat kürzlich die d800 mit einer (meiner Meinung nach) wahnsinnigen 36.3MP veröffentlicht. Aber gut, die d800 ist eine ziemlich hochwertige Kamera, mit der man leicht ein paar Riesen fallen lassen kann. Aber dann haben sie auch gerade d3200 herausgebracht, das darauf abzielte, eine DSLR für Anfänger mit 24,2 MP zu werden. Das ist doppelt so viel wie der d5000, den ich vor zwei Jahren gekauft habe.

Ich weiß, dass mehr MP gut ist. Höhere MP = schärferes Bild. Aber ab wann werden diese Schärfezunahmen bestenfalls vernachlässigbar, und eine Erhöhung der MP-Zahl dient nichts mehr als Prahlereirechten?

Wenn man bedenkt, dass die Leute jahrzehntelang großartige Fotos gemacht haben, dass einige erstaunliche Bilder mit frühen DSLRs mit weniger als 10 MP aufgenommen wurden, wie oft wird 36 MP dann wirklich nützlich sein?


1
Genau das habe ich versucht mit zu erreichen. Sind Megapixel mit moderner Sensortechnologie wichtig? .
Mattdm

Alles, was ich sagen kann, ist, dass Sie mit der D800 wirklich einige zusätzliche Details sehen können, auch wenn Sie keine verrückten großen oder 100% igen Ernten sehen.
Rfusca

Die Pixelgröße ist für den Vergleich relevanter als die Megapixel. Berechnen Sie die Quadratwurzel aus der Anzahl der Pixel. Jetzt vergleichen Sie eine Pixelgröße von 3,2 mit den frühen DSLRs, was anscheinend in Ordnung ist, mit der "verrückten" d800 6
Matt Grum

@ MattGrum: Ich bin verwirrt über diese letzte Aussage. Wenn Sie "Pixelgröße" sagen, meinen Sie damit den Pixelabstand? In diesem Fall hat die D800 einen Pixelabstand von etwa 4,6 Mikrometern. Relativ zu anderen Kameras: 7D = 4,3, D7000 = 4,8, 5D III = 6,2, 1D X = 6,9, D3s = 8,4. Der Pixelabstand des D800 ist kleiner als bei so ziemlich allen anderen Sensoren, mit Ausnahme des 7D-Sensors (und des D3200 mit einem Pixelabstand von etwa 3,8 Mikrometern) der Sensor (sagen wir 24 mm, 15,7 mm, 14,9 mm) durch die Reihen von Pixeln. Ich bin mir nicht sicher, wo die Quadratwurzel ins Spiel kommt.
jrista

2
@MattGrum: Ah ja, da stimmst du vollkommen zu. :) Der Unterschied zwischen "linearer" Pixelanzahl und "Pixelfläche". Ich habe dieses Argument in letzter Zeit so oft in anderen Foren vorgebracht ... es ist ein Konzept, das die Leute wirklich nicht verstehen. Vielleicht könnten wir einen Blogbeitrag zum Thema
gebrauchen

Antworten:


16

Megapixel sind notwendig!

Das Megapixel-Rennen ist sicherlich nicht "unnötig". Während des letzten Jahrzehnts wurden konsequent Fortschritte in Bezug auf Megapixel erzielt und gleichzeitig die Bildqualität kontinuierlich verbessert. Die anekdotischen Sprüche ließen Sie denken, dass dies unmöglich war, aber es gibt einige technologische Verbesserungen und Herstellungsverbesserungen, die ein geringeres Rauschen, ein größeres Signal-Rausch-Verhältnis und einen größeren Dynamikbereich trotz verkleinerter Pixelflächen möglich gemacht haben.

Ich denke, das Aufkommen des 36,3-Megapixel-Sony-Exmor-Sensors, der derzeit in der Nikon D800 verwendet wird, ist ein exquisites Beispiel dafür, wie technologische Verbesserungen auf niedrigem Niveau das Rauschen senken und die Dynamik steigern und gleichzeitig die Bildauflösung erheblich steigern können. Insofern ist die D800 meines Erachtens ein hervorragendes Beispiel dafür, warum das Megapixel-Rennen definitiv noch lange nicht vorbei ist.

Ob es sich nur um Prahlerei handelt? Das bezweifle ich. Bessere Werkzeuge können immer effektiv in den Händen eines erfahrenen Handwerkers verwendet werden. Eine höhere Auflösung und ein niedrigerer ISO-Dynamikbereich haben einige spezifische Anwendungsfälle mit hohem Wert. Nämlich Landschaftsfotografie und einige Formen der Studiofotografie. Die D800 befindet sich an einem einzigartigen Ort und bietet eine nahezu mittelgroße Bildqualität in einem Paket, das ungefähr 1/10 der Kosten beträgt. Für einige Studios gibt es keinen Ersatz für die Besten und sie werden digitale Mittelformatkameras im Wert von 40.000 US-Dollar einsetzen, um ihren Kunden die richtige Wahrnehmung zu bieten. Für viele andere Studios und für viele Landschaftsfotografen ist die D800 jedoch ein wahr gewordener Traum: jede Menge Megapixel UND hoher Dynamikumfang.

Nein, das Megapixel-Rennen ist definitiv nicht vorbei, und es ist sicherlich nicht unnötig. Wettbewerb an allen Fronten bringt Fortschritte an allen Fronten, und das ist immer nur gut für den Verbraucher.


Verbesserungspotential

Um ein bisschen tiefer zu gehen als meine Schlussfolgerungen oben, es gibt mehr in der Geschichte als nur die Tatsache, dass Wettbewerb an allen Fronten gut ist. Technologisch, physikalisch und praktisch gibt es Einschränkungen, die die potenziellen Gewinne tatsächlich einschränken, wenn wir die Anzahl der Sensorpixel weiter erhöhen. Sobald wir diese Grenzen erreicht haben, müssen nützliche Gewinne zu angemessenen Kosten an anderer Stelle erzielt werden. Zwei Bereiche, in denen dies auftreten kann, sind Optik und Software.

Technologische Einschränkungen

Technologisch gesehen gibt es eindeutige Grenzen, um wie viel Sie den IQ verbessern können. Die Hauptursache für die Bildverschlechterung bei Sensoren ist das Rauschen, und es gibt eine Vielzahl von elektronisch eingeführten Rauschformen, die gesteuert werden können. Ich denke, dass Sony mit seinen Exmor-Sensoren fast an technologische Grenzen stößt, wenn nicht bereits. Sie haben eine Vielzahl von Patenten genutzt, um Geräuschquellen auf Hardware-Ebene direkt in ihren Sensoren zu reduzieren. Die Hauptquellen für steuerbares Rauschen sind Dunkelstromrauschen , Leserauschen , Musterrauschen , Ungleichmäßigkeitsrauschen , Umwandlungs- (oder Quantisierungs-) Rauschen und thermisches Rauschen .

Sowohl Sony als auch Canon verwenden CDS oder korreliertes Doppelabtasten , um Dunkelstromrauschen zu reduzieren. Sonys Ansatz ist effizienter, aber beide verwenden im Wesentlichen den gleichen Ansatz. Das Leserauschen ist ein Nebenprodukt der Verstärkung aufgrund von Stromschwankungen durch die Schaltung. Es gibt eine Vielzahl von patentierten und experimentellen Ansätzen, um Spannungsschwankungen in einer Schaltung zu erfassen und während der Verstärkung zu korrigieren, um ein "reineres, genaueres" Leseergebnis zu erzielen. Sony verwendet einen eigenen patentierten Ansatz für Exmor-Sensoren, einschließlich des 36,3-Megapixel-Sensors für den D800. Die anderen beiden Arten von elektronischem Vorwandlungsrauschen sind Musterrauschen und Ungleichförmigkeitsrauschen. Dies ist das Ergebnis von Diskontinuitäten im Schaltungsverhalten und der Effizienz.

Das Musterrauschen ist ein fester Aspekt jedes der Transistoren, die zum Aufbau eines einzelnen Sensorpixels verwendet werden, und der elektronischen Gatter, die zum Einleiten des Lesens und Signallöschens verwendet werden. Auf Quantenniveau ist es nahezu unmöglich, jeden einzelnen Transistor exakt identisch zu machen, und dies erzeugt ein festes Muster von horizontalen und vertikalen Linien im Sensorrauschen. Im Allgemeinen trägt das Musterrauschen nur geringfügig zum Gesamtrauschen bei und ist nur in Regionen mit sehr niedrigem SNR oder bei sehr langen Belichtungszeiten wirklich ein Problem. Musterrauschen lässt sich relativ leicht entfernen, wenn Sie das Problem richtig angehen. Ein "dunkler Rahmen" kann konstruiert werden, indem mehrere Abtastwerte zusammengemittelt werden, um eine Musterrauschschablone zu erzeugen, die mit einem Farbrahmen unterschieden werden kann, um Musterrauschen zu entfernen. Dies ist im Wesentlichen, wie Langzeitbelichtung Rauschunterdrückung funktioniert, und es ist auch, wie man Rauschen mit festem Muster von langen Belichtungen manuell entfernen kann. Auf Hardwareebene kann festes Musterrauschen gemindert werden, indem eine Schablone eingebrannt wird, die die Effekte von FPN umkehrt, so dass die Unterschiede ähnlich wie bei CDS zum Lesezeitpunkt addiert / subtrahiert werden können, wodurch die "Reinheit" der Pixellesevorgänge verbessert wird. Heutzutage gibt es verschiedene experimentelle Ansätze zum Einbrennen von FPN-Vorlagen sowie abstraktere Ansätze.

Rauschen, das oft als PRNU oder Pixel Response Non Uniformity bezeichnet wird, ist das Ergebnis geringfügiger Schwankungen der Quanteneffizienz (QE) jedes Pixels. QE bezieht sich auf die Fähigkeit von Pixeln, Photonen einzufangen, und wird normalerweise als Prozentsatz bewertet. Die Canon 5D III hat beispielsweise eine QE von 47%, was darauf hinweist, dass sie effizient genug ist, um regelmäßig 47% der Photonen zu erfassen, die jedes Pixel erreichen. Die tatsächliche QE pro Pixel kann um +/- ein paar Prozent variieren, was eine weitere Rauschquelle erzeugt, da möglicherweise nicht jedes Pixel die gleiche Anzahl von Photonen wie seine Nachbarn einfängt, obwohl es die gleiche Menge an einfallendem Licht empfängt. PRNU ändert sich ebenfalls mit der Empfindlichkeit, und diese Art von Rauschen kann sich mit zunehmender ISO verschlimmern. PRNU kann durch Normalisieren der Quanteneffizienz jedes Pixels gemildert werden. Minimierung von Abweichungen zwischen Nachbarn und über die gesamte Sensorfläche. Eine Verbesserung der QE kann erreicht werden, indem die Lücke zwischen Fotodioden in jedem Pixel verringert wird, eine oder mehrere Mikrolinsenschichten über jedem Pixel eingeführt werden, um nicht auf die Fotodiode einfallendes Licht auf die Fotodiode zu brechen oder alle Leseverdrahtungen und Transistoren hinter der Fotodiode, wodurch die Möglichkeit ausgeschlossen wird, dass sie einfallende Fotonen blockieren und entweder reflektieren oder in Wärmeenergie umwandeln.)

Wärmegeräusche sind Geräusche, die durch Wärme entstehen. Wärme ist im Wesentlichen nur eine andere Energieform und kann die Erzeugung von Elektronen in einer Photodiode ähnlich wie eine Photonendose anregen. Thermisches Rauschen wird direkt durch Wärmeeinwirkung verursacht, häufig über heiße elektronische Komponenten wie einen Bildprozessor oder einen ADC. Dies kann durch eine thermische Trennung solcher Komponenten vom Sensor oder durch eine aktive Kühlung des Sensors verringert werden.

Schließlich gibt es Umwandlungsrauschen oder Quantisierungsrauschen. Diese Art von Rauschen wird aufgrund von inhärenten Ungenauigkeiten während des ADC oder der Analog-Digital-Wandlung erzeugt. Eine nichtintegrale Verstärkung (eine Dezimalverstärkung mit ganzem und gebrochenem Teil) wird normalerweise auf das vom Sensor gelesene analoge Bildsignal angewendet, wenn ein Bild digitalisiert wird. Da ein analoges Signal und eine Verstärkung reelle Zahlen sind, ist das digitale (integrale) Ergebnis der Umwandlung oft inkonsistent. Eine Verstärkung von 1 würde eine ADU für jedes von einem Pixel erfasste Elektron erzeugen. Eine realistischere Verstärkung könnte jedoch 1,46 sein. In diesem Fall erhalten Sie in einigen Fällen 1 ADU pro Elektron und in anderen Fällen 2 ADU pro Elektron. Diese Inkonsistenz kann Umwandlungs- / Quantisierungsrauschen in den digitalen Ausgang nach dem ADC einführen. Dieser Beitrag zum Lärm ist ziemlich gering, und erzeugt eine ziemlich feine Abweichung des Rauschens von Pixel zu Pixel. Mit der Software-Rauschunterdrückung ist es oft recht einfach, sie zu entfernen.

Das Entfernen elektronischer Rauschformen kann den Schwarzpunkt und die Schwarzreinheit eines Bildes verbessern. Je mehr Formen von elektronischem Rauschen Sie beseitigen oder abschwächen können, desto besser ist Ihr Signal-Rausch-Verhältnis, selbst bei sehr niedrigen Signalpegeln. Dies ist die Hauptfront, auf der Sony mit seinen Exmor-Sensoren erhebliche Fortschritte erzielt hat. Dies eröffnet die Möglichkeit eines echten 14-Stufen-Dynamikbereichs mit einer wirklich beeindruckenden Schattenwiederherstellung. Dies ist auch der Hauptbereich, in dem viele konkurrierende Sensorherstellungstechnologien hinterherhinken, insbesondere Canon- und Mittelformatsensoren. Insbesondere Canon-Sensoren weisen sehr hohe Lesegeräuschpegel, niedrigere QE-Normalisierungspegel und insgesamt niedrigere QE auf und verwenden CDS nur, um Dunkelstromrauschen in ihren Sensoren zu mindern. Dies führt zu einem viel geringeren Gesamtdynamikbereich.

Sobald alle Formen des elektronischen Rauschens auf ein Niveau reduziert sind, bei dem sie keine Rolle mehr spielen, können die Hersteller kaum noch etwas tun, um die Sensoren selbst zu verbessern. Sobald dieser Punkt erreicht ist, ist das einzige, was für die Quanteneffizienz pro Pixel wirklich von Bedeutung ist, die Pixelfläche. Mit nahezu perfekten elektronischen Eigenschaften könnten wir wahrscheinlich Pixelgrößen aushalten, die erheblich kleiner sind als die der DSLR-Sensoren mit der höchsten Dichte heute (das wäre die Nikon D800 mit ihren 4,6-Mikrometer-Pixeln, die Canon 7D mit ihren 4,3-Mikrometer-Pixeln und schließlich die Nikon D3200 mit 3,8-Mikrometer-Pixeln). Handysensoren verwenden Pixel um die 1-Mikrometer-Größe und haben gezeigt, dass z Pixel sind lebensfähig und können einen ziemlich anständigen IQ erzeugen. Dieselbe Technologie in einer DSLR könnte bei maximaler Rauschunterdrückung noch weiter gehen.

Körperliche Einschränkungen

Abgesehen von technologischen Einschränkungen bei der Perfektionierung der Bildqualität gibt es einige physikalische Einschränkungen. Die beiden Hauptbeschränkungen sind Photonenrauschen und räumliche Auflösung . Dies sind Aspekte der physischen Realität und Dinge, über die wir nicht viel Kontrolle haben. Sie können durch technologische Verbesserungen nicht gemildert werden und sind (und waren) unabhängig von der Qualität unserer Ausrüstung vorhanden.

Photonenrauschen oder Photon SchussLärm ist eine Form von Lärm aufgrund der inhärent unvorhersehbaren Natur des Lichts. Auf einer Quantenebene können wir nicht genau vorhersagen, auf welches Pixel ein Photon trifft oder wie oft Photonen auf ein Pixel und nicht auf ein anderes treffen. Wir können Photonenschläge grob an eine Wahrscheinlichkeitskurve anpassen, aber wir können die Anpassung niemals perfekt machen, sodass sich Photonen von einer gleichmäßigen Lichtquelle niemals perfekt und gleichmäßig über die Fläche eines Sensors verteilen. Dieser physikalische Aspekt der Realität erzeugt den größten Teil des Rauschens, dem wir auf unseren Fotos begegnen. Die Verstärkung dieser Art von Rauschen durch die Verstärker des Sensors ist der Hauptgrund dafür, dass Fotos bei höheren ISO-Einstellungen verrauscht werden. Niedrigere Signal-Rausch-Verhältnisse bedeuten, dass weniger Gesamtsignalbereich zum Einfangen und Verstärken von Photonen zur Verfügung steht. Daher kann ein höheres SNR dazu beitragen, die Auswirkungen von Photonenrauschen zu mildern und höhere ISO-Einstellungen zu erzielen. Das Photonenrauschen selbst kann jedoch nicht beseitigt werden und ist immer eine Einschränkung für den IQ der Digitalkamera. Software kann eine Rolle bei der Minimierung des Rauschens bei der Aufnahme von Photonen spielen. Da das Licht vorhersehbar ist, können fortschrittliche mathematische Algorithmen den größten Teil dieses Rauschens beseitigen, nachdem ein Foto aufgenommen und in einem RAW-Format importiert wurde. Die einzige wirkliche Einschränkung hierbei wäre die Qualität, Genauigkeit und Präzision der Rauschunterdrückungssoftware. Fortgeschrittene mathematische Algorithmen können den größten Teil dieses Rauschens beseitigen, nachdem ein Foto aufgenommen und in einem RAW-Format importiert wurde. Die einzige wirkliche Einschränkung hierbei wäre die Qualität, Genauigkeit und Präzision der Rauschunterdrückungssoftware. Fortgeschrittene mathematische Algorithmen können den größten Teil dieses Rauschens beseitigen, nachdem ein Foto aufgenommen und in einem RAW-Format importiert wurde. Die einzige wirkliche Einschränkung hierbei wäre die Qualität, Genauigkeit und Präzision der Rauschunterdrückungssoftware.

Die räumliche Auflösung ist ein weiterer physikalischer Aspekt von zweidimensionalen Bildern, mit denen wir arbeiten müssen. Raumfrequenzen oder zweidimensionale Wellenformen mit unterschiedlicher Helligkeit sind eine Möglichkeit, das von einer Linse projizierte und von einem Sensor aufgezeichnete Bild zu konzipieren. Die räumliche Auflösung beschreibt den Maßstab dieser Frequenzen und ist ein festes Attribut eines optischen Systems. Bei Sensoren ist die räumliche Auflösung eine direkte Folge der Sensorgröße und der Pixeldichte.

Die räumliche Auflösung wird häufig in Linienpaaren pro Millimeter (lp / mm) oder Zyklen pro Millimeter gemessen. Der D800 mit 4,3-Mikrometer-Pixeln oder 4912 Pixelreihen in 24 mm Sensorhöhe erreicht 102,33 lp / mm. Interessanterweise bietet die Canon 7D mit 3456 Pixelreihen und einer Sensorhöhe von 14,9 mm eine Auflösung von 115,97 lp / mm ... mehr als die D800. Ebenso kann die Nikon D3200 mit 4000 Pixelreihen in 15,4 mm Sensorhöhe 129,87 lp / mm erreichen. Sowohl der 7D als auch der D3200 sind APS-C- oder Cropped-Frame-Sensoren, die in ihren Abmessungen kleiner sind als der Full-Frame-Sensor des D800. Wenn wir die Anzahl der Megapixel in einem Vollbildsensor so lange erhöhen würden, bis sie die gleiche Pixelgröße wie der D3200 (3,8 Mikrometer) hätten, könnten wir einen 9351x6234-Pixelsensor oder 58,3 MP produzieren. Wir könnten diesen Gedanken bis zum Äußersten nehmen, und nehmen an, dass es möglich ist, einen DSLR-Vollbildsensor mit der gleichen Pixelgröße wie der Sensor im iPhone 4 zu produzieren (der bekanntermaßen einige sehr gute Fotos mit IQ macht, die zwar nicht so gut wie von einer DSLR sind, ist mehr als akzeptabel), was 1,75 Mikrometer ist. Das würde zu einem 20571x13714 Pixel Sensor oder 282.1mp führen! Ein solcher Sensor könnte eine räumliche Auflösung von 285,7 lp / mm erreichen, eine Zahl, die, wie Sie gleich sehen werden, nur begrenzt anwendbar ist.

Die eigentliche Frage ist, ob eine solche Auflösung in einem DSLR-Formfaktor von Vorteil wäre. Die Antwort darauf ist möglicherweise. Die räumliche Auflösung eines Sensors ist eine Obergrenze dessen, was mit der gesamten Kamera möglich ist, vorausgesetzt, Sie haben ein entsprechendes Objektiv, das eine ausreichende Auflösung bietet, um das Potenzial des Sensors zu maximieren. Objektive haben ihre eigenen physikalischen Einschränkungen in Bezug auf die räumliche Auflösung der Bilder, die sie projizieren, und diese Einschränkungen sind nicht konstant. Sie variieren je nach Blende, Glasqualität und Aberrationskorrektur. Die Beugung ist ein weiteres physikalisches Merkmal des Lichts, das die maximale potentielle Auflösung verringert, wenn es durch eine immer schmaler werdende Öffnung tritt (im Falle einer Linse ist diese Öffnung die Apertur). sind ein weiterer physikalischer Aspekt, der die maximale mögliche Auflösung verringert. Im Gegensatz zur Beugung optische Aberrationen nehmen zu, wenn die Apertur erweitert wird. Die meisten Linsen haben einen "Sweet Spot", an dem die Auswirkungen von optischen Aberrationen und Beugung in etwa gleich sind und die Linse ihr maximales Potenzial erreicht. Eine "perfekte" Linse ist eine Linse, die keinerlei optische Aberrationen aufweist und daher istBeugung begrenzt . Linsen werden häufig um ungefähr 1: 4 beugungsbegrenzt.

Die räumliche Auflösung einer Linse wird durch Beugung und Aberrationen begrenzt, und wenn die Beugung zunimmt, wenn die Apertur verringert wird, nimmt die räumliche Auflösung mit der Größe der Eintrittspupille ab. Bei 1: 4 beträgt die maximale räumliche Auflösung eines perfekten Objektivs 173 lp / mm. Bei 1: 8 erreicht ein beugungsbegrenztes Objektiv 83 lp / mm, was in etwa dem Wert der meisten DSLRs mit Vollformat entspricht (mit Ausnahme der D800), die zwischen 70 und 85 lp / mm liegen. Bei 1: 16 erreicht ein beugungsbegrenztes Objektiv lediglich 43 lp / mm, die Hälfte der Auflösung der meisten Vollbildkameras und weniger als die Hälfte der Auflösung der meisten APS-C-Kameras. Breiter als 1: 4, bei einem Objektiv, das immer noch von optischen Aberrationen betroffen ist, kann die Auflösung schnell auf 60 lp / mm oder weniger und bei ultraschnellen Weitwinkel-1: 1,8- oder schnelleren Primzahlen auf 25-30 lp / mm abfallen . Zurück zu unserer theoretischen 1. 75 Mikron Pixel 282mp FF Sensor ... es wäre in der Lage 285 lp / mm räumliche Auflösung. Sie benötigen ein perfektes, beugungsbegrenztes 1: 2,4-Objektiv, um diese räumliche Auflösung zu erzielen. Eine solche Linse würde eine extreme Aberrationskorrektur erfordern, was die Kosten stark erhöht. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. Die räumliche Auflösung beträgt 285 lp / mm. Sie benötigen ein perfektes, beugungsbegrenztes 1: 2,4-Objektiv, um diese räumliche Auflösung zu erzielen. Eine solche Linse würde eine extreme Aberrationskorrektur erfordern, was die Kosten stark erhöht. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. Die räumliche Auflösung beträgt 285 lp / mm. Sie benötigen ein perfektes, beugungsbegrenztes 1: 2,4-Objektiv, um diese räumliche Auflösung zu erzielen. Eine solche Linse würde eine extreme Aberrationskorrektur erfordern, was die Kosten stark erhöht. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. 4 Linse, um so viel räumliche Auflösung zu erreichen. Eine solche Linse würde eine extreme Aberrationskorrektur erfordern, was die Kosten stark erhöht. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. 4 Linse, um so viel räumliche Auflösung zu erreichen. Eine solche Linse würde eine extreme Aberrationskorrektur erfordern, was die Kosten stark erhöht. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt.

Wenn wir physikalische Einschränkungen in die Gleichung einbeziehen, wann das Megapixel-Rennen vorbei sein wird, stellen wir fest, dass (bei annähernd technologischer Perfektion) die höchste kostengünstige Auflösung etwa 173 lp / mm beträgt. Das ist ungefähr ein 103-MP-Vollbild- oder 40-MP-APS-C-Sensor. Es ist zu beachten, dass bei einer so hohen Sensorauflösung die Vorteile nur bei einem immer schmaleren Blendenbereich von etwa 1: 4 sichtbar werden, wenn die Leistung des Objektivs optimal ist. Wenn die Korrektur optischer Aberrationen einfacher wird, können wir möglicherweise höhere Auflösungen erzielen, indem wir auf 200 lp / mm drücken. Solche Auflösungen sind jedoch nur bei oder nahe der maximalen Apertur möglich, während bei allen anderen Aperturen die Gesamtauflösung Ihrer Apertur erreicht wird Die Kamera ist niedriger, möglicherweise viel niedriger als der Sensor selbst.


Wann endet das Megapixel-Rennen?

Die Beantwortung dieser Frage ist meines Erachtens nicht wirklich qualifiziert. Letztendlich ist es eine persönliche Entscheidung, die von einer Vielzahl von Faktoren abhängt. Einige Fotografen möchten möglicherweise immer das Potenzial, das Sensoren mit höherer Auflösung bei idealer Blende bieten können, solange sie Szenen mit immer feineren Details fotografieren, die eine solche Auflösung erfordern. Andere Fotografen bevorzugen möglicherweise die verbesserte Wahrnehmung der Schärfe, die durch die Verbesserung der Eigenschaften von Sensoren mit niedrigerer Auflösung erzielt wird. Für viele Fotografen ist das Megapixel-Rennen meiner Meinung nach bereits zu Ende, mit rund 20 Megapixeln in einer FF-DSLR-Packung ist das mehr als genug. Darüber hinaus sehen viele Fotografen die Bildqualität in einem völlig anderen Licht. Sie bevorzugen die Bildrate und die Fähigkeit, mehr Bilder kontinuierlich mit einer niedrigeren Auflösung aufzunehmen, um als Fotograf erfolgreich zu sein. In solchen Fällen wurde von vielen Nikon-Fans darauf hingewiesen, dass etwa 12 MP mehr als ausreichend sind, wenn sie 10 Bilder pro Sekunde in scharfer Klarheit aufnehmen können.

Technisch und physikalisch gibt es immer noch enormen Spielraum, um zu wachsen und weiter an Megapixeln und Auflösung zu gewinnen. Wo das Rennen endet, liegt bei Ihnen. Die Vielfalt der verfügbaren Optionen war noch nie so groß wie heute und Sie können die Kombination aus Auflösung, Sensorgröße und Kamerafunktionen wie AF, ISO und DR wählen, die Ihren Anforderungen entspricht.


Sobald wir in der Lage sind, ein Bild für eine 14 x 48 Fuß große Werbetafel mit 300 dpi und einem Digitalzoom von 2400 mm aufzunehmen, kann ich das Ende des Rennens nicht mehr sehen, und es kann auch danach fortgesetzt werden. Soweit ich weiß, entspricht dies 14 * 12 * 300 * 48 * 12 * 300 * (2400/35) ^ 2 / 1,000,000 = 40,950,638 Megapixel. Wenn Sie den Digitalzoom weglassen, sind dies immer noch 8709 Megapixel. Bei 8709MP hätte ein Vollbildsensor mit einem Durchmesser von 36 mm eine Pixelbreite von etwa 208 nm. 2012 Intel CPUs verwenden 22nm Technologie .
BeowulfNode42

... weiter. Mir ist klar, dass die Wellen des sichtbaren Lichts bei etwa 390 bis 700 nm größer sind. Aber wir haben noch einen fairen Weg vor uns, der kritisch einschränkt.
BeowulfNode42

Ich bin mir nicht sicher, was Sie mit Digitalzoom meinen. Das ist im Grunde genommen eine Vergrößerung in der Post und würde Sie nicht in die Nähe von 300 ppi bei einer Größe von 14 x 48 Fuß bringen. Ich meine, das könnten Sie auf jeden Fall tun ... aber es hat keinen Sinn, das zu tun ... Sie hätten nur ein massiv verschwommenes Bilddetail. Könnte auch bei 15ppi drucken bleiben. Wenn der Pixelabstand 700 nm erreicht, filtern sie rotes Licht. Bei 550 nm filtern sie grünes Licht und bei 460 nm filtern sie blaues Licht. Es wird niemals 208nm Pixel für sichtbares Licht geben.
jrista

In Bezug auf die heutigen Pixelgrößen ... wird die nächste Generation von Sensoren mit kleinem Formfaktor 0,95 µm Pixel verwenden ... das sind 950 nm. Die nächste Generation danach ist wahrscheinlich 825nm, danach erreichen wir diese Wellenlängenbegrenzung ... Ich glaube nicht, dass wir 700nm Pixel in irgendeinem Sensor sehen werden. Zugegeben, diese Pixel werden noch lange nicht in FF- oder APS-C-Sensoren verwendet, aber technisch gesehen nähern wir uns bereits der Megapixel-Grenze (bezogen auf den Pixelabstand) Es ist nicht wirklich logisch, CPU-Transistorgrößen auf Pixelabstände anzuwenden. Intel nutzt 22nm ...
jrista

... Transistoren. Pixel sind unterschiedlich. Die Pixelfläche ist entscheidend für die Lichtsammelkapazität, die sich direkt auf den Rauschpegel bezieht. Ein 22-nm-Pixel ist einfach unlogisch. Sensortransistorgrößen werden bereits ziemlich klein. Canon verwendet immer noch 500 nm, aber die letzte Generation verwendete 180 nm-Transistoren, und neuere Generationen verwenden 90 nm und einige sogar 65 nm. Die nächsten Stopps für die Größe der Sensortransistoren sind 45 nm und möglicherweise 32 nm (obwohl ich erst mit einem Pixelabstand von 825 nm rechne, wenn wir ihn dort überhaupt sehen, da er mit BSI nicht erforderlich ist.)
jrista

7

Abgesehen von Speicher- und Geschwindigkeitsproblemen wird mit mehr Megapixeln absolut jedes einzelne Bild, das Sie aufnehmen, besser. In manchen Fällen vielleicht nur ein bisschen besser, aber das klingt nach etwas, das es wert ist, von mir gesehen zu werden.

Wenn Sie jemals ein Bild von Moire (Farbstreifenmuster) haben:

Labyrinth-Artefakte:


(Quelle: gol.com )

Aliasing:

http://cdn.asia.cnet.com/i/r/2005/dc/39095631/4.jpg

Farbsäume, falsche Details, fehlende Farbdetails oder andere Demosaikierungsartefakte - mit mehr Megapixeln wären Ihre Probleme gelöst.

Irgendwann sehe ich DSLR-Sensoren mit 80-100 MP. An diesem Punkt möchten Sie nicht jedes Mal jedes Pixel speichern, sondern einen RAW-Modus mit reduzierter Auflösung, wie Canon mRAW, der Ihnen ein Bild mit außergewöhnlichen Farbdetails liefert, die denen ähneln ist mit Foveon-Sensoren aber mit einer viel höheren Auflösung erreichbar.


1
Eine Anmerkung zu Canon s / mRAW. Ich habe diese Formate für ein paar Monate nach dem Kauf meiner Canon 7D verwendet. Obwohl sie als RAW bezeichnet werden, sind sie vom eigentlichen RAW-Format aus Sicht der Nachbearbeitung weit entfernt. Bei der Verarbeitung einer mRAW-Datei sind mir bemerkenswerte Einschränkungen aufgefallen, wie weit ich Belichtung, Sättigung, Tonen usw. im Vergleich zum nativen Rohmaterial verschieben kann. In vielen Fällen schlug das mRAW bei dem Versuch, Glanzlichter zu erzielen oder Schatten aufzuheben, kläglich fehl. Selbst mit einem 100-Megapixel-Sensor würde ich immer noch die native RAW bevorzugen, da die Vorinterpolation der Pixel viele Grenzen setzt.
jrista

"Farbsäume, falsche Details, fehlende Farbdetails oder andere Demosaikierungsartefakte, wenn Sie mehr Megapixel hätten, wären Ihre Probleme gelöst." Ich bin immer davon ausgegangen, dass das Objektiv Farbsäume erzeugt, nicht der Sensor. Wie würde eine höhere Sensorauflösung dies beheben? Würde es nicht "schlimmer" machen, dh die Grenzen der Linsen verschieben, damit Artefakte und allgemeine optische Defekte besser sichtbar werden?
MattiaG

@MattiaGobbi: Er bezieht sich auf Demosaicing-Artefakte, die eine Form von Farbsäumen enthalten, die sich aus sehr einfachen Demosaicing-Algorithmen ergeben, nicht aus den Farbsäumen, die durch Linsenaberrationen erzeugt werden.
jrista

@ jrista - Danke, ich werde mir das mal ansehen. Ich kann nicht anders, als zu denken, dass Demosaikieren in seiner Grundform nur das Bild weicher machen soll, da drei von vier Pixeln im endgültigen Bild sozusagen eine Farbe haben, die der Durchschnitt der Farben der umgebenden Pixel ist. Dies erklärt auch die geringe Farbgenauigkeit an den Kanten. Könnten komplexere Artefakte durch Algorithmen erzeugt werden, die die Schärfe und Farbe des Demoisaicing-Prozesses verbessern sollen?
MattiaG

@MattiaGobbi: Das Demosaikieren dient nicht dazu, das Bild weicher zu machen ... sondern die einzelnen Farbkanäle eines Bayer-Sensors in RGB-Pixel zu interpolieren. Es gibt einige Demosaikierungsalgorithmen. Eines der häufigsten Verfahren ist die AHD-Demosaikierung. Hierbei handelt es sich um einen gewichteten Algorithmus, der die meisten Farbsäume beseitigt und ziemlich scharfe Ergebnisse liefert. Es gibt eine Vielzahl von anderen Ansätzen als auch in Open - Source - RAW - Editoren und Astrofotografie - Tool verwendet werden , die entweder schneller, genauer, entworfen , um Extrakt so viele Details wie möglich, usw.
jrista

2

Ich bin nicht absolut anderer Meinung als das, was andere gesagt haben, aber die Antwort hängt zum Teil davon ab, was Sie am meisten schätzen. Ich interessiere mich am meisten für eine hohe ISO-Rauscharmut, wobei die Pixelauflösung wichtig, aber zweitrangig ist. Andere haben sehr unterschiedliche Prioritäten. Ich habe eine APSC-Kamera mit 24 MP A77, die in etwa die Spitzenposition bei der Leistung von APSC-MP einnimmt, aber in den Bereichen, die mir am wichtigsten sind, deutlich hinter einigen APSC-Kameras zurückliegt.

Nachdem ich mir die Ergebnisse der D700, D3, D3s, D3x, 5DMkII, 5DMkIII, A800 und D4 angesehen habe, bin ich zu dem Schluss gekommen, dass das Megapixel-Rennen der hohen ISO-Leistung derzeit voraus ist und dass es für meine Zwecke die "beste Leistung" ist. Kamera ist die im Oktober 2009 erschienene Nikon D3s. Nach Zahlen stimmt nichts anderes damit überein, und nach meinem Verständnis funktioniert Leistung in der realen Welt tatsächlich, sonst kommt nichts in die Nähe.


Die folgende Art von Material neigt dazu, Flammenkriege zu erzeugen. Ich versuche nur zu beschreiben, was ich sehe. Die Augen anderer Leute funktionieren möglicherweise anders :-).

Ich persönlich bin vom D800 enttäuscht und der Sensor hat 36 mp. Ich hatte auf etwas gehofft, das einen klaren Kopf und Schultern über dem D700 hatte und das die D3s sanft aus dem Sitz bringen könnte.

Der DXOMark-Sensor bewertet die ISO-Bewertung bei schlechten Lichtverhältnissen

Dies ist keineswegs der ultimative Leitfaden für die Leistung einer Kamera in solchen Situationen unter realen Bedingungen, sondern ein guter Leitfaden für das, was vernünftigerweise erwartet werden kann. Die Bewertung gibt eine ISO-Einstellung an, bei der die Kamera nur drei Mindestanforderungen erfüllt.

Der 4 Jahre alte D700 verfügt über einen DxO-Sensor mit einem niedrigen ISO-Wert von 2303 ISO und der D800 mit einem ISO-Wert von 2853. Der neue D4 ist mit 2965 ISO bewertet und der einstige König dieser Maßnahme ist der (legendär werdende) D3 mit 3253 ISO. ABERDiese Bewertungen werden auf eine Standardbildgröße von 12 MP angepasst, wobei die ISO-Bewertung beim Test mit einem Faktor von Quadratwurzel (Megapixel / 12 Megapixel) skaliert wird. Um das zu bekommen, was sie beim Testen gesehen haben, skalieren Sie das Bild nach unten (12 / mp). Der D800 mit 36 ​​mp ist also um einen Faktor 0f sqrt (36/12) = sqrt (3) = 1.732 höher als tatsächlich gemessen. Sie maßen es also mit 2853 / 1,73 = ~ 1650 ISO. Die Begründung für die Skalierung lautet, dass das "Rauschen" in einem Bild durch Heruntersuchen aufgrund der Mittelung von Informationen in benachbarten Zellen mathematisch reduziert wird. Theoretisch ist eine Skalierung um einen mit sqrt (Megapixel) verbundenen Faktor sinnvoll. Aber beim Betrachten von Bildern bin ich nicht überzeugt. Sie sagen, dass eine Kamera mit einem größeren Verhältnis von absolutem Rauschen zu Signal pro Pixel, aber mehr MP, ein verbessertes Ergebnis beim Verkleinern erzeugt. Mathe sagt ja. Das Augenhirnsystem sagt, dass der Effekt weitaus geringer ist, als die Skalierung vermuten lässt. Ich könnte wahrscheinlich die konkreten Beispiele herausarbeiten, die ich vor einiger Zeit gezogen habe, aber das ist subjektiv und es gibt genügend Vergleiche, damit jeder seine Lieblingsversion finden kann.

Die EOS 5D MkII (NOT III) hat eine DXO-ISO-Bewertung von 1815 gegenüber ISO 2303 für die D700. Der Vergleich von Bildern mit identischen Szenen, die bei identischen Lichtverhältnissen mit äquivalenten Objektiven bei hohen ISO-Einstellungen aufgenommen und auf die gleiche Bildgröße konvertiert wurden, zeigt jedoch einen äußerst signifikanten Unterschied zwischen beiden. So toll, dass ich allein schon aus diesem Grund keinen 5DkII in Betracht ziehen würde.

Ich habe noch nicht genug von der D800-Ausgabe gesehen, um den Schlussfolgerungen zu folgen, aber was ich gesehen habe, zeigt, dass eine gebrauchte D700 wahrscheinlich eine sehr attraktive und möglicherweise überlegene Wahl ist, wenn Schwachlicht und hohe ISO-Leistung Ihre Priorität sind . Und ein D3 ist wieder besser.


Ein großartiger Artikel, den man unbedingt lesen muss . Ergänzt JRistas exzellente Rply.
Rauschen, Dynamikumfang und Bittiefe in digitalen Spiegelreflexkameras

Bezieht sich auch auf:

IRIS - freie Bildverarbeitungssoftware mit astronomischer Ausrichtung auf Fotografie - aber nützlich für vieles andere.

Kostenlose Bildbearbeitungssoftware IMAGEJ von US NIH


Können Sie einen Link bereitstellen, der 5D2- und D700-Bilder von identischen Szenen zeigt, die unter identischen Lichtbedingungen mit äquivalenten Objektiven bei hohen ISO-Einstellungen aufgenommen und auf die gleiche Bildgröße konvertiert wurden? Ich finde es schwer zu glauben, dass der Unterschied "extrem signifikant" ist
Matt Grum

@MattGrum - Ich werde versuchen, die Bilder zu finden, die mich davon überzeugt haben, dass die D700 mein ultimatives Ziel ist (wenn wir die D3s ignorieren). Ich habe auf einen D700 gewartet oder was auch immer, daher ist der D800 eine große Enttäuschung. Wunderbares Spielzeug, aber nicht der nächste Schritt in Richtung "in der Dunkelheit sehen", auf den ich gehofft hatte. Sony wird später in diesem Jahr 2 x FF haben, und einer sollte den D800-Sensor mehr oder weniger verwenden, damit für den anderen eine gewisse Hoffnung besteht. ABER Sony hat eine sehr schlechte Aufnahme mit hohem ISO-Rauschen im Vergleich zu Nikon mit demselben Sensor. Mein A700 war <D300 bis Rev 4 Software.
Russell McMahon

3
Es gibt auch einen Punkt, der häufig übersehen wird, wenn dieses Problem besprochen wird, nämlich, dass Sie eine stärkere Rauschunterdrückung auf Bilder mit hohen Megapixeln ohne Artefakte anwenden können. Dies liegt daran, dass Rauschen viel feinerkörniger ist und zwischen die Details fällt, anstatt sie zu verdecken. Wenn die Mittelwertbildung durch direktes Downsampling das Rauschen um den Faktor 1,73 verbessert, sollte ein ausgeklügeltes Rauschreduzierungsschema viel besser abschneiden können. Bei einer festgelegten Menge an einfallendem Licht erhalten Sie mit zunehmenden Megapixeln mehr Informationen (über den Lichteinfall), auch wenn das Rauschen pro Pixel höher ist.
Matt Grum

2

Früher dachte ich, dass MPs überbewertet sind, bis ich ein Experiment mit Überabtastung durchführte. Inspiriert von der Faustregel der Audioabtastung, das Doppelte der benötigten Frequenz abzutasten. 22K-Wellen werden mit 44K abgetastet, aber wenn Sie die Zahlen zeichnen, erhalten Sie nur die Welle, wenn sie sich in der perfekten Phase befindet. Sie können auch riskieren, nur Nullen abzutasten. Du brauchst mindestens 4x Oversampling, um die Welle und ihre Form zu erhalten (es kann ein Sägezahn oder ein Sinus sein, du kannst es nicht mit 2x der Samplerate wissen). Professionelle Audiogeräte probieren intern 192kHz und dann auf 48k oder 44k herunter.

Ich habe festgestellt, dass das Gleiche gilt für Fotos. Wenn Sie ein Bild mit einer Auflösung von 1024 x 768 erzielen möchten, ist die beste Frequenz, die Sie erzielen können, wenn jeder zweite Pixel dunkel und jeder zweite Pixel hell ist (nennen wir es eine Textur). Wenn Sie das Bild mit einer Auflösung von 1024 x 768 aufnehmen, übersehen Sie möglicherweise die Phase dieser Textur oder sie wird einfach unscharf, da die "wahre Systemauflösung" zu niedrig ist, oder eine Demosaikierung durch eine höhere Auflösung führt zu einer deutlichen Verschlechterung. Sie müssen also mindestens ein Bild mit einer Auflösung von 4096 x 3072 aufnehmen, ohne die Bayer-Demosiacking-Funktion zu berücksichtigen. 8192 x 6144.

Das Downsampling sollte besser sein als bilinear oder bikubisch, um den Vorteil zu erzielen. Ein sinc-basierter Filter ist am besten geeignet, z. B. Lanzcos.

1: 1 gegen überabgetastet und dann mit Lanczos abgetastet:

Überabtastung


Gute Argumente. Da es sich bei einem Bild um ein 2D-Bild handelt, entspricht die MP-Zunahme dem Quadrat der Überabtastrate. Das 2-fache Oversampling ist also viermal so viele MP und das 4-fache Oversampling ist 16-mal so viele MP, das 8-fache Oversampling ist 64-mal so viele MP.
BeowulfNode42

Ich kenne. beachte, dass ich nicht (im gegensatz zu den meisten ppl) die auflösung in mps zähle. Ich arbeite mit Kameras in vielen verschiedenen Seitenverhältnissen (z. B. 1x12000, das ist dann eine 0,012 MP-Kamera, aber die Auflösung in einer Achse war am besten als bei einer 4: 3-Kamera mit 36 ​​MP). das sieht man an meinen auflösungsbeispielen.
Michael Nielsen

1

Früher dachte ich, das Megapixel-Rennen sei irgendwie albern, bis mir klar wurde, dass High-End-Kameras mit 36 ​​Megapixeln die Low-End-Ausrüstung (aber die einwandfreie Verwendbarkeit) viel erschwinglicher machen. Wenn jemand eine Kamera kaufen muss, die Drucke in Plakatgröße produzieren kann, großartig! In der Zwischenzeit können wir alle (für unsere bescheidenen Bedürfnisse) großartige Bilder auf unseren iPhones und Prosumer Nikons aufnehmen.


Das iPhone 4 und einige der jüngsten Androiden machen erstaunliche Fotos. Ich erwarte, dass sie den P + S-Markt in ein paar Jahren vollständig auffressen werden. Und ich erwarte, dass sie sich auf dem Low-End-Superzoom- / DSLR-Markt behaupten. Die gute Nachricht ist, dass das Gesetz von Moore gilt, damit unsere besseren APS-C-DSLRs weiterhin besser werden.
Pat Farrell

Moores Gesetz gilt auch in der Optik? Ich meine, der "digitale" Teil, in dem Moores Gesetz funktionieren könnte, beginnt nur im Inneren des Kameragehäuses.
Esa Paulasto

0

Ich gebe Ihnen eine kurze und nützliche Antwort (hoffe ich)

Viele der vor mir gegebenen Antworten haben großartige Informationen, also entlassen Sie sie nicht

Aber um die Frage zu beantworten: Wie oft wird 36MP nützlich sein? Hängt von Ihrer Situation ab. Amateur, der nie druckt und nur digital anzeigt. Noch nie.

Amateur, der manchmal druckt. Gelegentlich, wenn gelegentlich größer als A4 gedruckt wird

Pro, für verschiedene Zwecke. Ziemlich oft

Für Leute, die niemals drucken oder nicht größer als ein Poster werden, werden Sie nie mehr als 10-12 nützlich sein, und es hat auch Nachteile. ZB beim Aufnehmen von RAW (Sie machen alle RAW, nicht wahr?) ) Bildgrößen auf dem 21MP 5DmkII sind ungefähr 24Mb, ich habe erfahren, dass die Bildgrößen auf dem D800 ungefähr 30Mb sind. Das kann Karten sehr schnell füllen. Wenn Sie also eine gute 10-12 MP-Kamera haben und nicht größer drucken als Wenn Sie ein Poster haben, verdreifachen Sie die Anzahl der Bilder auf einer Karte und können den Unterschied nicht erkennen, als wenn Sie viel mehr für die D800 ausgegeben hätten

ich hoffe das hilft


3
Wie wäre es mit Zuschneiden? ZB ein Amateur ohne Profi-Ultra-Teleobjektiv. Würden Megapixel nicht helfen?
Imre

1
Ich bin mit @Imre hier ... mehr Megapixel sind von größter Wichtigkeit, wenn Sie sich die über 10.000 USD teuren Objektive nicht leisten können, um die Reichweite zu erreichen, die Sie für die Aufnahme der benötigten Fotos benötigen. Das Zuschneiden ist die einzige Alternative, und eine Kamera wie die D800 bietet einige erstaunliche Zuschneidefunktionen. Was den Weltraum betrifft ... Weltraum ist billig. Sie können 128 GB CF-Speicherplatz für ein paar hundert Dollar erhalten, was weniger als 10% der Kosten des D800 selbst entspricht. Relativ gesehen sind 30-Megapixel-Fotos ein kleiner Preis für den IQ und die Zuschneide-Fähigkeit, die Sie erhalten.
jrista

Robert Capa sagte bekanntlich: "Wenn Ihre Fotos nicht gut genug sind, sind Sie nicht nah genug dran." Das Abschneiden nachträglich ist niemals ein Ersatz für das Erlernen des richtigen Rahmens.
Richard

Das Beschneiden nachträglich ist niemals ein Ersatz für das Erlernen des richtigen Rahmens. Wenn Sie nicht gerade wild lebende Tiere fotografieren, ist es ungewöhnlich, dass Sie ein Objektiv benötigen, das länger als 200 mm ist, und es gibt Dutzende von Objektiven mit dieser Brennweite oder weniger für recht günstige Preise. In dieser Branche habe ich unter zwei Umständen immer nur ein Objektiv mit einer Länge von mehr als 200 mm verwendet (für die Formel 1, wo wir aus Sicherheitsgründen nicht näher ran konnten). Die häufigsten sind 50 mm, 85 mm und 100 mm, also 24-70 und 70-200 werden alle abdecken
Richard

1
Ja, es sei denn, Sie schießen wild lebende Tiere - genau das tun viele Amateure gerne.
Imre

0

Ich habe gerade meinen D800E bekommen, zu dem ich von einem D200 umgezogen bin. Ich habe 100 lppm mit diesem Ding mit Autofokus mit einem Sigma 24 1,8 bei f4 gemessen. Ich habe noch nichts gedruckt, da ich es nur 2 Tage hatte. Ich war in der Lage, Moire damit zu erregen, indem ich ein Testziel schoss, aber es war nur auf dem Monitor sichtbar, CaptureNX2 eliminierte es mit einer niedrigen Demosiac-Einstellung. Ich habe einen 55-Mikro-Nikkor, der schärfer aussieht, aber aufgrund des Sensors nicht besser als 100 sein kann. Der große Vorteil ist natürlich, dass 100 lppm über einen FF-Sensor verteilt sind und das ist viel Real Image Real Estate. Endlich kann ich fotografieren, ohne mich so eng an den Rahmen halten zu müssen. Ich kann sogar 645 oder ein Quadrat aufnehmen - es ist eine große Freiheit für meinen Stil, wenn ich für das Motiv einen Rahmen anfertige. oder zumindest hoffe ich das


-3

Seit Jahrzehnten macht niemand mehr großartige digitale Bilder. Um die Jahrhundertwende hielten viele Menschen den Film für weit überlegen. In diesen Tagen wurde dieses Argument beigelegt.

Es ist nicht wahr, dass mehr Pixel ein schärferes Bild bedeuten. Es gibt Grenzen aufgrund der Beugung der Linse, die eine Grenze darstellen. Wenn Sie einen größeren Sensor verwenden, können Sie dieses Problem für den praktischen Sensor natürlich vermeiden. Aus diesem Grund bewegen sich viele Profis jetzt über 35 mm (Vollbild) und auf 6x4,5-Bilder.

Oft handelt es sich bei der Megapixel-Zahl nur um Marketing-Flaum, um Leute anzusaugen, die es nicht besser wissen. Aber manchmal ist mehr besser.

Es ist ein komplexeres Thema, als die Vorurteile Ihrer Frage vermuten lassen.


Was Sie über Beugung sagen, ist irgendwie wahr. Roger Cicala bei lensrentals.com hat einen schönen Blog- Eintrag mit Zahlen, die den (kleinen) Effekt der Beugung zeigen.
Håkon K. Olafsen
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.