Warum wird bei modernen DSLRs immer noch ein physischer Anti-Aliasing-Filter benötigt?


13

Ich verstehe, dass der Zweck des Anti-Aliasing-Filters (AA) darin besteht, Moiré zu verhindern. Als Digitalkameras zum ersten Mal auf den Markt kamen, war ein AA-Filter erforderlich, um eine ausreichende Unschärfe zu erzielen und Moiré-Muster zu vermeiden. Zu dieser Zeit war die Leistung von In-Camera-Prozessoren sehr begrenzt. Aber warum muss bei modernen DSLR-Kameras immer noch ein AA-Filter über dem Sensor angebracht werden? Könnte dies nicht genauso einfach durch die Algorithmen erreicht werden, die angewendet werden, wenn die Ausgabe des Sensors demosaiziert wird?Es scheint, dass die derzeit in der Kamera verfügbare Rechenleistung dies jetzt viel mehr als noch vor einigen Jahren ermöglicht. Der aktuelle Digic 5+ -Prozessor von Canon verfügt über die 100-fache Verarbeitungsleistung des Digic III-Prozessors, die die Leistung der frühesten Digitalkameras in den Schatten stellt. Konnte die AA-Unschärfe, insbesondere beim Aufnehmen von RAW-Dateien, nicht in der Nachbearbeitungsphase erfolgen? Ist dies die Grundvoraussetzung der Nikon D800E, obwohl sie einen zweiten Filter verwendet, um dem ersten entgegenzuwirken?


Es ist nicht. Es gibt bereits DSLRs ohne Anti-Alias-Filter, darunter die Pentax K-5 IIs, Nikon D800E sowie spiegellose Modelle wie den Olympus PEN E-PM2 und alle Fujis (X-E1, X-Pro1). Außerdem kündigten sie sogar Kameras mit festem Objektiv ohne AA-Filter (X20 und X100S) an.
Itai

1
Und alle diese Kameras zeigen manchmal Farbmoiré.
Kendall Helmstetter Gelner

3
In der Tat aber auch andere Kameras. Ich vermute, dass ein Anti-Alias-Filter, der jegliches Moiré vermeidet, zu stark wäre. Daher verwenden die Hersteller AA-Filter mit geringerer Stärke. Beispielsweise tritt in meinem K-5 II- und K-5 II-Vergleich bei beiden Kameras Moiré auf, bei den K-5 IIs nur viel mehr.
Itai

1
Auch die neue Nikon D7100 hat im IIRC keine.
James Snell

1
Und jetzt hat die Pentax K-3 keinen Filter, sondern einen Modus, um den Sensor während der Belichtung sehr, sehr leicht zu vibrieren, um einen zu simulieren. Eine Menge interessanter Innovationen in diesem Bereich.
Bitte Profil lesen

Antworten:


12

Aliasing ist das Ergebnis der Wiederholung von Mustern mit ungefähr derselben Frequenz, die sich in unerwünschter Weise gegenseitig stören. Bei der Fotografie erzeugen die höheren Frequenzen des vom Objektiv auf den Sensor projizierten Bildes ein Interferenzmuster (in diesem Fall Moiré) mit dem Pixelraster. Diese Störung tritt nur auf, wenn diese Frequenzen ungefähr gleich sind oder wenn die Abtastfrequenz des Sensors mit der Wavelet-Frequenz des Bildes übereinstimmt. Das ist die Nyquist-Grenze. Hinweis ... das ist ein analoges Problem ... Moiré tritt aufgrund von Interferenzen auf, die in der realen Welt in Echtzeit auftreten, bevor das Bild tatsächlich belichtet wird.

Sobald das Bild belichtet ist, wird dieses Interferenzmuster effektiv "eingebrannt". Bis zu einem gewissen Grad können Sie Software verwenden, um Moiré-Muster in der Post zu entfernen. Im Vergleich zu einem physischen Tiefpassfilter (AA-Filter) vor dem Sensor ist dies jedoch nur minimal wirksam. Der Detailverlust durch Moiré kann auch größer sein als der Verlust durch einen AA-Filter, da Moiré praktisch Unsinnsdaten sind, bei denen leicht unscharfe Details noch nützlich sein können.

Ein AA-Filter dient nur dazu, diese Frequenzen in Nyquist zu verwischen, damit keine Interferenzmuster entstehen. Der Grund, warum wir immer noch AA-Filter benötigen, liegt darin, dass Bildsensoren und Objektive immer noch in der Lage sind, auf die gleiche Frequenz aufzulösen. Wenn sich Sensoren so weit verbessern, dass die Abtastfrequenz des Sensors selbst bei optimaler Apertur konstant höher ist als die der besten Objektive, sinkt der Bedarf an einem AA-Filter. Die Linse selbst würde die für uns notwendigen Unschärfen effektiv handhaben, und Interferenzmuster würden niemals in erster Linie auftreten.


Hier ist ein Teil eines Kommentars, der auf photo.stackexchange.com/questions/10755/… gepostet wird . Glauben Sie immer noch, dass es richtig ist? Wenn ja, wie wird das Muster eingebrannt, bis die RAW-Daten demosaikiert wurden? "Ironischerweise scheint zumindest bei RAW die theoretische Nyquist-Grenze nicht immer eine harte Grenze zu sein, was wahrscheinlich auf die unterschiedlichen Wellenlängen von rotem, grünem und blauem Licht und die Verteilung von RGB-Pixeln in einem Sensor zurückzuführen ist. - jrista ♦ 10. April 11 um 18:50 Uhr
Michael C

1
Ich glaube, ich habe dort allgemein über Auflösung gesprochen und nicht direkt über Aliasing im aufgezeichneten digitalen Signal. Die Nyquist-Grenze ist aufgrund des ungleichmäßigen Musters von RGRG- und GBGB-Reihen eine schwierige Sache, in einem Bayer-Sensor festzunageln. Die räumliche Auflösung von Grün ist höher als die räumliche Auflösung von Rot oder Blau, daher liegt die Nyquist-Grenze für rotes oder blaues Licht bei einer niedrigeren Frequenz als die Nyquist-Grenze für grünes Licht. Die Nyquist-Grenze in einem demosaizierten Bild ist ziemlich schwer genau zu bezeichnen, daher wird es eher zu einer Art Fuzzy-Band als zu einer konkreten mathematischen Grenze.
jrista

1
... dieses Muster wird Teil des Bildes. Selbst wenn Sie die genauen Wavelet-Eigenschaften des virtuellen Bildes kennen und eine Fourier-Reihe davon erzeugen könnten, müssten Sie die Ausrichtung des Bildes relativ zum virtuellen Konzept des Sensors ändern, um das Moire "perfekt" zu eliminieren. Das ist eine Menge übermäßig intensiver, hoch mathematischer Arbeit ... vorausgesetzt, Sie kennen die GENAUE Natur des ursprünglichen virtuellen Bildsignals und dessen Beziehung zum Sensor. Sobald das Aliasing in eine RAW-Datei eingebrannt wurde, ist es so gut wie erledigt. Es gibt wirklich keine Möglichkeit, es rückgängig zu machen, ohne Details zu mildern.
jrista

1
Ich weiß alles über den Frequenzunterschied zwischen Rot / Blau und Grün. Da bei allen aktuellen optischen AA-Filtern nur bei Nyquist gefiltert wird, kommt es wirklich auf die Kamera an. Nicht alle AA-Filter sind exakt gleich konzipiert, und selbst für die gleiche Marke haben verschiedene Modelle und verschiedene Leitungen häufig AA-Filter, die sich unterschiedlich verhalten. Ich weiß, dass die 1D- und 5D-Linien in der Vergangenheit einige Frequenzen oberhalb von Nyquist durchgelassen haben, aber ich denke, es ist eine Frage des Abgleichs mit der Objektivauflösung.
jrista

1
Bei Sensoren mit kleineren Pixeln, wie dem Canon 18mp APS-C, dem D800 und dem D3200, werden die Pixel immer kleiner. Außerhalb eines kleinen Segments können wirklich neue Objektive (wie die Mark II L-Serie von Canon und nur die Objektive, die in den letzten zwei bis drei Jahren auf den Markt gekommen sind) genügend Details auflösen, um den Sensor deutlich zu übertreffen und ein Aliasing bei Frequenzen über zu verursachen Nyquist. Filtern Sie um Nyquist, und das Objektiv selbst verwischt Details darüber hinaus. Ich denke, das ist einer der Gründe, warum die 5D-Linie einen übermäßig starken AA-Filter hat ... Objektive lösen ihn leichter.
jrista

11

Die Physik funktioniert einfach nicht so. Durch das Aliasing werden Frequenzen nach dem Nyquist-Grenzwert irreversibel so umgewandelt, dass sie als Frequenzen unterhalb des Grenzwerts angezeigt werden, obwohl diese "Aliase" nicht wirklich vorhanden sind. Kein Verarbeitungsaufwand für ein Alias-Signal kann im allgemeinen Fall das ursprüngliche Signal wiederherstellen. Die ausgefallenen mathematischen Erklärungen sind ziemlich lang, es sei denn, Sie haben eine Klasse in Abtasttheorie und digitaler Signalverarbeitung. Wenn Sie es dennoch getan hätten, würden Sie die Frage nicht stellen. Leider lautet die beste Antwort dann einfach: "So funktioniert die Physik nicht. Entschuldigung, aber Sie müssen mir in dieser Sache vertrauen." .

Betrachten Sie den Fall eines Bildes von einer Mauer, um ein grobes Gefühl dafür zu vermitteln, dass das oben Genannte zutrifft. Ohne einen AA-Filter gibt es Moiré-Muster (die eigentlich die Aliase sind), die die Ziegellinien wellig erscheinen lassen. Sie haben noch nie das echte Gebäude gesehen, nur das Bild mit den Wellenlinien.

Woher weißt du, dass die echten Steine ​​nicht in einem Wellenmuster verlegt wurden? Sie nehmen an, dass sie nicht aus Ihrem allgemeinen Wissen über Ziegel und der menschlichen Erfahrung mit dem Sehen von Ziegelmauern stammen. Könnte jemand jedoch einfach absichtlich eine Mauer so gestalten, dass sie im wirklichen Leben (mit eigenen Augen betrachtet) wie das Bild aussieht? Ja, sie könnten. Kann man also mathematisch ein verzerrtes Bild einer normalen Backsteinmauer von einem originalgetreuen Bild einer bewusst gewellten Backsteinmauer unterscheiden? Nein ist es nicht. Tatsächlich können Sie den Unterschied auch nicht wirklich erkennen, außer dass Ihre Vorstellung davon, was ein Bild wahrscheinlich darstellt, den Eindruck erwecken kann, dass Sie es können. Genau genommen kann man nicht sagen, ob es sich bei den Wellen um Moiré-Artefakte oder um echte Wellen handelt.

Software kann die Wellen nicht auf magische Weise entfernen, da sie nicht weiß, was echt ist und was nicht. Mathematisch kann gezeigt werden, dass es nicht wissen kann, zumindest wenn man nur das wellige Bild betrachtet.

Eine Mauer mag ein offensichtlicher Fall sein, bei dem Sie erkennen, dass das verzerrte Bild falsch ist, aber es gibt viele subtilere Fälle, bei denen Sie es wirklich nicht wissen und sich möglicherweise nicht einmal bewusst sind, dass ein Aliasing stattfindet.

Als Antwort auf Kommentare hinzugefügt:

Der Unterschied zwischen dem Aliasing eines Audiosignals und eines Bildes besteht nur darin, dass das erstere 1D und das letztere 2D ist. Die Theorie und die Mathematik, um Effekte zu realisieren, ist immer noch dieselbe, nur dass sie beim Umgang mit Bildern in 2D angewendet wird. Wenn sich die Samples in einem regelmäßigen rechteckigen Raster befinden, wie es bei einer Digitalkamera der Fall ist, treten einige andere interessante Probleme auf. Zum Beispiel ist die Abtastfrequenz entlang der diagonalen Richtungen in Bezug auf die achsenausgerichteten Richtungen 2 × niedriger (ungefähr 1,4 × niedriger). Die Abtasttheorie, die Nyquist-Rate und die tatsächlichen Aliase unterscheiden sich jedoch in einem 2D-Signal nicht von einem 1D-Signal. Der Hauptunterschied scheint darin zu liegen, dass es für diejenigen, die nicht daran gewöhnt sind, im Frequenzraum zu denken, schwieriger sein kann, ihre Gedanken einzuhüllen und zu projizieren, was alles in Bezug auf das, was Sie in einem Bild sehen, bedeutet.

Nein, Sie können ein Signal nicht nachträglich "demosaikieren", zumindest nicht in dem allgemeinen Fall, in dem Sie nicht wissen, wie das Original aussehen soll. Moiré-Muster, die durch das Abtasten eines kontinuierlichen Bildes verursacht werden, sind Aliase. Für sie gilt die gleiche Mathematik wie für Hochfrequenzen, die in einen Audiostream übergehen und wie Hintergrundpfeifen klingen. Es ist das gleiche Zeug, mit der gleichen Theorie, um es zu erklären, und der gleichen Lösung, um damit umzugehen.

Diese Lösung besteht darin, die Frequenzen oberhalb der Nyquist-Grenze vor dem Abtasten zu beseitigen . Bei Audio, das mit einem einfachen Tiefpassfilter durchgeführt werden kann, kann dies möglicherweise aus einem Widerstand und einem Kondensator erfolgen. Bei der Bildabtastung benötigen Sie immer noch einen Tiefpassfilter. In diesem Fall wird ein Teil des Lichts, das nur auf ein einzelnes Pixel trifft, auf benachbarte Pixel verteilt. Optisch sieht wie folgt aus einem leichten Verschwimmen des Bilds vores wird abgetastet. Hochfrequenzinhalte sehen aus wie feine Details oder scharfe Kanten in einem Bild. Umgekehrt enthalten scharfe Kanten und feine Details hohe Frequenzen. Genau diese hohen Frequenzen werden im abgetasteten Bild in Aliase umgewandelt. Einige Aliase werden als Moiré-Muster bezeichnet, wenn das Original einen regelmäßigen Inhalt hatte. Einige Aliase verleihen Linien oder Kanten den "Treppenstufen" -Effekt, insbesondere wenn sie nahezu vertikal oder horizontal sind. Es gibt andere visuelle Effekte, die durch Aliase verursacht werden.

Nur weil die unabhängige Achse in Audiosignalen die Zeit ist und die unabhängigen Achsen (zwei davon, da das Signal 2D ist) eines Bildes die Entfernung sind, wird die Mathematik nicht ungültig oder es wird irgendwie zwischen Audiosignalen und Bildern unterschieden. Wahrscheinlich, weil die Theorie und die Anwendungen von Aliasing und Anti-Aliasing an 1D-Signalen entwickelt wurden, die zeitbasierte Spannungen waren, wird der Begriff "Zeitbereich" im Gegensatz zum "Frequenzbereich" verwendet. In einem Bild ist die Nichtfrequenzraumdarstellung technisch die "Entfernungsdomäne", aber zur Vereinfachung der Signalverarbeitung wird sie häufig trotzdem als "Zeitdomäne" bezeichnet. Lass dich nicht davon ablenken, was Aliasing wirklich ist. Und nein, es ist überhaupt kein Beweis dafür, dass die Theorie nicht auf Bilder zutrifft. nur, dass aus historischen Gründen manchmal eine irreführende Wortwahl verwendet wird, um Dinge zu beschreiben. Tatsächlich ist die Abkürzung "Zeitdomäne", die auf die Nichtfrequenzdomäne von Bildern angewendet wird, tatsächlichdenn die Theorie ist die gleiche zwischen Bildern und echten zeitbasierten Signalen. Aliasing ist Aliasing, unabhängig davon, wie die unabhängige Achse (oder die unabhängigen Achsen) aussieht.

Wenn Sie nicht bereit sind, sich auf der Ebene einiger College-Kurse über Abtasttheorie und Signalverarbeitung damit zu beschäftigen, müssen Sie am Ende nur denen vertrauen, die dies tun. Einige dieser Dinge sind ohne einen signifikanten theoretischen Hintergrund nicht intuitiv zu verstehen.


Mein gesamtes Hintergrundwissen im Bereich Sampling und digitale Signalverarbeitung bezog sich auf digitales Audio. Ich verstehe, wie ein Tiefpassfilter Klänge oberhalb einer bestimmten Frequenz daran hindert, in die AD-Umwandlung einzudringen. Wenn Sie mit 44.100 kHz abtasten, wenden Sie einen Filter an, der bei etwa 20 kHz abläuft, und jede Antwort von 22 kHz ist so gut wie weg. Bei der digitalen Bildgebung ist dies jedoch nicht so einfach, da selbst bei AA-Filtern ein gewisses Aliasing auftritt. Ich habe an anderer Stelle gelesen, dass die Filter nicht versuchen, alles über dem Nyquist zu blockieren, da dies die Auflösung zu sehr reduzieren würde.
Michael C

1
Ich würde zustimmen müssen, dass das Problem, mit dem ein Tiefpassfilter in einer Kamera umgeht, nicht dasselbe ist wie das Problem, mit dem ein Tiefpassfilter in der Audioverarbeitung umgeht. Ich denke, der beste Weg, es auszudrücken, ist, dass ein Audio-Tiefpassfilter direkt mit einem elektronischen Signal arbeitet, während ein optischer Tiefpassfilter die Raumfrequenzen eines von einem Objektiv erzeugten Bildsignals bearbeitet. Das elektronische Signal, mit dem Sie arbeiten, ist anderer Natur als ein Bildsignal.
jrista

1
@Michael: Siehe dazu meine Antwort.
Olin Lathrop

1
"Moiré-Muster, die durch das Abtasten eines kontinuierlichen Bildes verursacht werden, sind Aliase." - Olin. Ich denke, das ist genau dort der entscheidende Punkt! Wenn Sie die Belichtung tatsächlich aufnehmen, zeichnen Sie keine reine Version des ursprünglichen virtuellen Bildes auf ... Sie zeichnen Aliase von Datenpunkten innerhalb dieses ursprünglichen virtuellen Bildes auf. Diese Daten auf Ihrem Computer enthalten Aliase. Sehr schön, prägnant und klar ausgedrückt. :)
jrista

1
@Michael: Was Sie über die Interpolation von Vollfarbpixeln aus unformatierten Sensorwerten sagen, ist korrekt, hat jedoch keinen Einfluss auf die Aliasing-Diskussion. Letztendlich wird das reale kontinuierliche Bild immer noch an diskreten Punkten abgetastet, sodass ein Anti-Alising-Filter vor dem Abtasten erforderlich ist, um Aliase zu vermeiden. Ihr Kommentar zur Algebra macht absolut keinen Sinn. Natürlich gilt die Algebra für Polynome höherer Ordnung und 2D-Gleichungen, nur dass sie aufgrund unabhängigerer Variablen komplexer wird.
Olin Lathrop

6

In Software können Sie nicht den gleichen Effekt erzielen. Unter bestimmten Voraussetzungen können Sie irgendwo in der Nähe sein. Der AA-Filter streut das Licht jedoch so, dass er auf mehrere verschiedenfarbige Pixel trifft, sodass Sie Informationen erhalten, die im Sensor ohne AA-Filter nicht vorhanden sind.

Die Nikon D800E unternimmt überhaupt nichts, um den AA-Filter zu replizieren. Wenn das Bild hochfrequente Muster enthält, bekommen Sie Moiré und das ist Ihr Problem - Sie müssen sich damit befassen!

Aliasing ist am schlimmsten, wenn die Detailfrequenz im Bild sehr nahe an der Abtastfrequenz liegt. Bei älteren Kameras mit Sensoren mit niedriger Auflösung (und daher mit niedriger Abtastfrequenz) war Moiré ein ernstes Problem mit vielen Arten von Bilddetails, sodass AA-Filter stark waren (nichts mit begrenzter Verarbeitungsleistung zu tun). Jetzt haben wir viel höhere Abtastfrequenzen, und Moiré zeigt erst dann Bilddetails mit viel höheren Frequenzen.

Eventuell werden die Abtastfrequenzen so hoch sein, dass die erforderlichen hochfrequenten Objektdetails nicht an Linsenfehlern und Beugungseffekten vorbeigehen und das AA-Filter überflüssig machen. Dies ist zum Teil der Grund, warum einige MF-Rückteile nicht über einen AA-Filter, eine super hohe Auflösung und Modefotografen verfügen, die gerne mit riesigen Profoto-Netzteilen auf 1: 32 fotografieren, um die Beleuchtung zu prüfen.


Es scheint mir, dass die Interpolation, die im Demosaikierungsprozess durchgeführt wird, modifiziert werden könnte, um genau dasselbe zu erreichen, da das Mitteln benachbarter Pixel dort erfolgt. Die Nikon D800E verfügt wie andere Kameras über zwei AA-Filterkomponenten, aber anstatt eines horizontal polarisierenden Lichts und eines vertikal polarisierenden Lichts beträgt das zweite 180 Grad vom ersten und nimmt die polarisierten Strahlen vom ersten auf und kombiniert sie zurück zu einem Strom. Siehe photo.stackexchange.com/questions/22720/…
Michael C

2
@MichaelClark Nein, Sie können beim Demosaikieren nicht denselben Effekt erzielen. Ein einzelner Lichtpunkt, der auf den D800E-Sensor trifft, erzeugt nur an einer Fotoseite eine Ladung. Es gibt keine Möglichkeit festzustellen, welche Farbe das Licht hat, wenn man auf benachbarte Pixel schaut. Die Informationen sind für immer verloren. Der gleiche Lichtpunkt, der auf den D800-Sensor trifft (mit AA-Filter), trifft ein Pixel stark und die umliegenden Pixel in geringerem Maße. Da die benachbarten Pixel aufgrund ihrer Intensität unterschiedliche Farbfilter aufweisen, kann ein Demosaikierungsalgorithmus die Farbe des Lichts abschätzen.
Matt Grum

1
@MichaelClark Der einzige Grund, warum der D800E diese Anordnung hat, ist die Vereinfachung des Herstellungsprozesses. Es ist viel einfacher, die Ausrichtung eines der Filter in der Eingangsstufe zu ändern, als zwei Filter gegen ein klares Glaselement - letztendlich den Filter - auszutauschen Der Stapel muss die gleiche Höhe haben, da er einen Brechungseffekt hat, und moderne Linsendesigns berücksichtigen dies. Wenn Sie beim D800E einfach keinen der beiden Filter einsetzen, führt dies zu einer subtilen Aberration der Bilder.
Matt Grum

Zur gleichen Zeit, in der ein einzelner Lichtpunkt auf eine Sensorstelle trifft, treffen entsprechende Lichtpunkte auf alle benachbarten Sensorstellen, und der AA-Filter bewirkt, dass alle von ihnen Licht aufeinander ausstrahlen. Verwenden die meisten Demosaikierungsalgorithmen keine Interpolation, um die Helligkeitsniveaus nicht nur der unmittelbaren Pixelvertiefungen, sondern auch anderer Pixelvertiefungen in der Nähe mit derselben Farbempfindlichkeit zu vergleichen? Ist es nicht effektiv, benachbarte Pixel mathematisch ineinander zu verwischen, was Sie tun?
Michael C

1
@MichaelClark der Alias ​​ist keine Unschärfe. Es betrifft Pixel, die sehr weit voneinander entfernt sind. ZB erhalten Sie alle 50 Pixel einen Takt, der über 10 ein- / ausgeblendet wird. War dieser Streifen echt oder wird er durch Streifen verursacht, die kleiner als die Pixel sind? Du kannst es nicht wissen.
JDługosz,

2

Das sind alles gute Antworten und gute Informationen. Ich habe eine sehr vereinfachte Erklärung. Gehen wir von 2D zu 1D (dasselbe Konzept gilt).

Wenn eine Frequenz auf Ihren Sensor trifft, die höher als die "maximal zulässige Frequenz" ist, wird tatsächlich eine Spiegelfrequenz in der unteren Seite erzeugt. Sobald Ihr Bild aufgenommen wurde, sehen Sie dieses niedrigere Signal, aber die Kamera oder Ihr Computer wissen nicht, ob es sich tatsächlich um ein niedrigeres Signal handelt oder ob es sich um ein Alias ​​handelt, das aus einem zu hohen Signal erstellt wurde. Diese Informationen gehen verloren. Das ist der Grund für die "maximal zulässige Frequenz" oder die Nyquist-Frequenz. Es heißt, dies ist die höchste Frequenz, die abgetastet werden kann, und darüber gehen Informationen verloren.

Analog zu Audio: Nehmen wir an, Sie haben Ihr System so eingerichtet, dass Sie einen Frequenzbereich von 0 Hz bis 1000 Hz wünschen. Um einen kleinen zusätzlichen Raum zu lassen, probieren Sie bei 3000 Hz, was Ihren Niquist zu 1500 Hz macht. Hier kommt der aa-Filter ins Spiel. Sie möchten nicht, dass etwas über 1500 Hz eintritt. In Wirklichkeit beginnt Ihre Abschaltung direkt nach 1000 Hz, aber Sie stellen sicher, dass bis zu 1500 Hz nichts mehr übrig ist.

Nehmen wir an, Sie vergessen den aa-Filter und lassen einen Ton von 2500 Hz in Ihren Sensor ein. Es wird um die Abtastrate (3000 Hz) gespiegelt, sodass Ihr Sensor einen Ton bei 500 Hz (3000 Hz - 2500 Hz) aufnimmt. Jetzt, da Ihr Signal abgetastet ist, wissen Sie nicht, ob die 500-Hz-Frequenz tatsächlich vorhanden war oder ob es sich um einen Alias ​​handelt.

btw. Die Spiegelbilder treten für alle Frequenzen auf, sind jedoch kein Problem, solange Sie sich nicht über dem Nyquist befinden, da Sie sie später leicht herausfiltern können. Beispiel für einen Eingangston: 300 Hz. Du wirst Aliase bei (3000 - 300 = 2700hz [und korrekterweise auch 3000 + 300 = 3300hz]) haben. Da Sie jedoch wissen, dass Sie nur bis zu 1000 Hz in Betracht ziehen, können diese problemlos entfernt werden. Das Problem tritt also wieder auf, wenn die Spiegelbilder in das Spektrum kommen, das Sie tatsächlich wollen, weil Sie den Unterschied nicht erkennen können und das ist, was sie mit "eingebrannt" meinen.

hoffe das hilft


1
Abgesehen davon, dass "Aliasing" im Kontext der Fotografie "räumlich" ist, basierend auf sich wiederholenden Mustern in dem auf den Sensor projizierten Bild, und nicht auf bestimmten Lichtfrequenzen, die auf einen einzelnen Pixel gut treffen. Die optischen Tiefpassfilter der meisten Kamerasensoren filtern nicht "alle" Frequenzen oberhalb der Nyquist-Grenze, sondern nur "die meisten" wiederholten Muster an der Nyquist-Grenze und den zugehörigen Vielfachen.
Michael C

Ich freue mich über Ihren Kommentar. Ich bezog mich auch nicht auf die Lichtfrequenzen, sondern auf die Änderungsrate der Intensität von einem Pixel zum nächsten. Ich habe die Farben ignoriert. Ich schätze, ich habe es als 3 einzelne Schwarz-Weiß-Bilder angesehen. Später bekommt jeder eine Farbe und überlagert zusammen bilden sie alle Farben. Es fällt mir immer noch schwer, mich mit Frequenzen in Bildern zu beschäftigen. Ich vermute, wenn Sie ein weißes Pixel direkt neben einem schwarzen Pixel haben, repräsentiert es hohe Frequenzen aufgrund der schnellen Änderungsrate, und ein hellgraues Pixel neben einem dunkelgrauen Pixel ist eine niedrigere Frequenz.
pgibbons

Genau so funktioniert das Demosaikieren eines Bayer-Maskensensors nicht, und dies ist ein Grund, warum ich diese Frage ursprünglich gestellt habe.
Michael C

Höhere Frequenzen sind in diesem Zusammenhang Wiederholungsmuster mit weniger Abstand auf dem Sensor zwischen den einzelnen Wiederholungen. Niedrigere Frequenzen wiederholen Muster mit größerem Abstand zwischen den einzelnen Wiederholungen. Wenn der Pixelabstand eines Sensors 6 µm beträgt, haben Muster, die sich alle 3 µm wiederholen, die Nyquist-Frequenz. Muster, die sich alle 4 um wiederholen, würden unterhalb der NF liegen, und Muster, die sich alle 2 um wiederholen, würden darüber liegen.
Michael C
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.