Was ist die spärliche Fouriertransformation?


46

Das MIT hat in letzter Zeit ein bisschen Lärm um einen neuen Algorithmus gemacht, der als schnellere Fouriertransformation bezeichnet wird, die auf bestimmte Arten von Signalen angewendet werden kann, z . Das MIT Technology Review Magazin sagt :

Mit dem neuen Algorithmus, der so genannten Sparse Fourier Transformation (SFT), können Datenströme 10- bis 100-mal schneller verarbeitet werden, als dies mit der FFT möglich war. Die Beschleunigung kann auftreten, weil die Informationen, die uns am meisten interessieren, sehr strukturiert sind: Musik ist kein zufälliges Rauschen. Diese aussagekräftigen Signale haben normalerweise nur einen Bruchteil der möglichen Werte, die ein Signal annehmen könnte. der Fachbegriff dafür ist, dass die Informationen "spärlich" sind. Da der SFT-Algorithmus nicht für alle möglichen Datenströme geeignet ist, können bestimmte Verknüpfungen verwendet werden, die ansonsten nicht verfügbar sind. Theoretisch ist ein Algorithmus, der nur spärliche Signale verarbeiten kann, wesentlich eingeschränkter als die FFT. "Überall ist Sparsamkeit", betont Co-Erfinder Katabi, Professor für Elektrotechnik und Informatik. "Es liegt in der Natur; es ' s in Videosignalen; es ist in Audiosignalen. "

Könnte hier jemand eine technischere Erklärung geben, was der Algorithmus tatsächlich ist und wo er anwendbar sein könnte?

EDIT: Einige Links:

Antworten:


40

Die Idee des Algorithmus ist folgende: Nehmen Sie an, Sie haben ein Signal der Länge , das im Frequenzbereich spärlich ist. Das heißt, wenn Sie die diskrete Fourier-Transformation berechnen würden, gäbe es eine kleine Anzahl von Ausgaben , die ungleich Null sind. die anderen sind vernachlässigbar. Eine Möglichkeit, an die gewünschten Ausgänge zu gelangen, besteht darin, die FFT für die gesamte Sequenz zu verwenden und dann die Werte ungleich Null auszuwählen .NkNNkkk

Der hier vorgestellte Sparse-Fourier-Transformations-Algorithmus ist eine Technik zum Berechnen dieser Ausgaben mit geringerer Komplexität als die FFT-basierte Methode. Da Ausgaben Null sind, können Sie im Wesentlichen einige Mühe sparen, indem Sie im Algorithmus Verknüpfungen verwenden, um diese Ergebniswerte nicht einmal zu generieren. Während die FFT eine Komplexität von , hat der Sparse-Algorithmus eine potentiell niedrigere Komplexität von für den Sparse-Spektrum-Fall.kNkO(nlogn)O(klogn)

Für den allgemeineren Fall, dass das Spektrum "spärlich" ist, es jedoch mehr als Nicht-Null-Werte gibt (z. B. für eine Anzahl von Tönen, die in Rauschen eingebettet sind), stellen sie eine Variation des Algorithmus dar, der die größten Ausgaben mit schätzt eine zeitliche Komplexität von , die auch weniger komplex sein könnte als die FFT.kkO(klognlognk)

Gemäß einem Diagramm ihrer Ergebnisse (im Bild unten wiedergegeben) liegt der Übergangspunkt für eine verbesserte Leistung in Bezug auf FFTW (eine optimierte FFT-Bibliothek, die von einigen anderen Mitarbeitern am MIT erstellt wurde) in der Nähe des Punkts, an dem nur -th bis -th der Ausgangstransformationskoeffizienten sind ungleich Null. Außerdem geben sie in dieser Präsentation an, dass der Sparse-Algorithmus eine bessere Leistung bietet, wenn .12111210Nk[2000,106]

Bildbeschreibung hier eingeben

Diese Bedingungen beschränken die Anwendbarkeit des Algorithmus auf Fälle, in denen Sie wissen, dass das Spektrum eines Signals wahrscheinlich nur wenige signifikant große Peaks aufweist. Ein Beispiel, das sie auf ihrer Website zitieren, ist, dass 8 x 8 Pixelblöcke, die häufig bei der Bild- und Videokomprimierung verwendet werden, im Frequenzbereich fast 90% dünn sind und daher von einem Algorithmus profitieren könnten, der diese Eigenschaft ausnutzt. Dieses Maß an Sparsamkeit scheint nicht mit dem Anwendungsbereich für diesen bestimmten Algorithmus übereinzustimmen, daher kann es sich nur um ein anschauliches Beispiel handeln.

Ich muss ein bisschen mehr in der Literatur nachlesen, um ein besseres Gefühl dafür zu bekommen, wie praktisch eine solche Technik bei Problemen der realen Welt ist, aber für bestimmte Klassen von Anwendungen könnte sie passen.


2
Also ist es im Grunde eine verlustbehaftete FFT? Wie ein MP3-Encoder?
Endolith

3
@endolith: Ich bin mir nicht sicher, ob ich es so ausdrücken würde. Vielleicht analoger zu einem beschnittenen FFT-Algorithmus, der nur eine Teilmenge der Ausgaben berechnet. Die Behauptung ist, dass, wenn das Eingangssignal sparsam ist, die Ausgänge genau berechnet werden. kk
Jason R

Ich frage mich, wie es gegen Goertzel-Algorithmus (oder eine Familie von ihnen) geht. Es scheint, als ob der einzige Unterschied darin besteht, dass Sie in Goertzel wissen, wonach Sie suchen.
Spacey

5
@endolith: Die MP3-Komprimierung ist verlustbehaftet, da die Koeffizienten quantisiert werden. nicht, weil nur die oberen k-Koeffizienten beibehalten werden. Sparse FFT = "Was ist die Darstellung der k-Koeffizienten, die den Unterschied zum Eingangssignal minimiert?" Codierung eines mp3-Rahmens = "Was sind die quantisierten Koeffizienten und Quantisierungspegel, die den (Wahrnehmungs-) Fehler bei einem Budget von N Bits zum Speichern der Koeffizienten und Skalierungsfaktoren minimieren".
Pichenettes

1
Wenn sie weggeworfen werden, ist dies ein Nebeneffekt der Quantisierung (der Wert wird auf 0 gerundet)
Pichenetten

7

Ich habe das Papier über sFFT nicht gelesen, aber ich habe das Gefühl, dass die Idee, die dahinter liegende FFT zu befestigen, die Priorität von k-sparsity ausnutzt. Daher muss man nicht alle Einträge von FFT-Koeffizienten berechnen, sondern nur k davon. Deshalb ist die Komplexität für ein k-spärliches Signal O (klog n) anstelle von O (nlog n) für eine herkömmliche FFT.

Wie auch immer, in Bezug auf die Kommentare von @rcmpton, indem Sie sagen: "Die Idee hinter der komprimierten Abtastung ist, dass Sie spärliche Daten aus spärlichen Zufallsstichproben wiederherstellen können, die aus einer anderen Domäne stammen (z. B. spärliche Bilder aus spärlichen Zufallsfrequenzdaten (z. B. MRT)). . " Die Frage ist, was ist "spärliche Zufallsstichproben"? Ich denke, es könnten Stichproben sein, die durch zufälliges Projizieren der spärlichen Daten in einen niedrigeren (Mess-) Unterraum gesammelt wurden.

Und wie ich verstanden habe, besteht der theoretische Rahmen der Druckmessung hauptsächlich aus drei Aspekten: Sparsity, Messung und Wiederherstellung. Unter Sparsamkeit versteht man die Suche nach spärlichen Darstellungen für bestimmte Klassen von Signalen, was die Aufgabe des Wörterbuchlernens ist. Bei der Messung geht es darum, einen effizienten (rechnerisch effizienten und wiederherstellbaren) Weg zum Messen der Daten (oder zum Projizieren von Daten in einen geringeren Messraum) zu suchen, der die Aufgabe des Messmatrixdesigns ist, wie beispielsweise eine zufällige Gaußsche Matrix, eine strukturierte Zufallsmatrix. ... Und durch die Wiederherstellung sind die spärlich regulierten linearen Inversionsprobleme l0, l1, l1-l2, lp, l-Gruppe, blabla ... und die resultierenden Algorithmen verschieden. Basisverfolgung, Bayesian, ....

Es ist wahr, dass "cs die Minimierung der L1-Norm ist", und L1-Norm ist ein Grundprinzip für cs, aber cs ist nicht nur die Minimierung der L1-Norm. Neben den oben genannten 3 Teilen gibt es auch einige Erweiterungen wie die strukturierte (Gruppen- oder Modell-) Druckmessung, bei der auch strukturierte Sparsamkeit ausgenutzt wird und nachweislich die Wiederherstellungsfähigkeit erheblich verbessert.

Als Fazit ist cs ein großer Schritt in der Abtasttheorie und bietet eine effiziente Möglichkeit zum Abtasten von Signalen, vorausgesetzt, diese Signale sind spärlich genug . So ist cs eine Stichprobentheorie , jeder, der es als eine Technik zur Klassifizierung verwenden wird oder Anerkennung ist irreführend , das Prinzip. Und gelegentlich finde ich ein Papier mit dem Titel "Compressive Sensing Based ...", und ich denke, dass das Prinzip eines solchen Papiers die l1-Minimierung anstelle von cs ausnutzt und es besser ist, "l1-Minimierung basierend ..." zu verwenden. ".

Wenn ich falsch liege, korrigieren Sie mich bitte.


Willkommen bei DSP.SE Dies ist ein großartiger Beitrag.
Phonon

6

Ich habe das Papier durchgesehen und ich glaube, ich habe eine allgemeine Vorstellung von der Methode. Die "geheime Sache" der Methode ist, wie man eine spärliche Darstellung des Eingangssignals im Frequenzbereich erhält. Die vorhergehenden Algorithmen verwendeten eine Art rohe Gewalt zur Lokalisierung des dominanten Dünnschichtkoeffizienten. Diese Methode Verwendung anstelle Technik , die „Space Recovery“ oder „Compressed Sensing“ genannt Wiki - Artikel ist hier die genaue Methode der spärlichen Erholung hier sieht verwendet ähnlich wie ‚harter Schwellenwert“ - einer der dominierenden spärlichen Rückgewinnungsverfahren.

Die PS-Technik der Sparse Recovery / Compressed Sensing und der damit verbundenen L1-Minimierung wird in der modernen Signalverarbeitung und insbesondere in Verbindung mit der Fourier-Transformation häufig eingesetzt. In der Tat ist es ein Muss für die moderne Signalverarbeitung zu wissen. Aber bevor die Fourier-Transformation als eine der Methoden zur Lösung des Sparse-Recovery-Problems verwendet wurde. Hier sehen wir gegenüber - spärliche Erholung für Fourier - Transformation.

Gute Website für die Übersichtskomprimierung: nuit-blanche.blogspot.com/

PPS-Antwort auf vorherigen Kommentar - wenn das Eingangssignal nicht gerade dünn ist, ist es verlustbehaftet.

Fühlen Sie sich frei, mich zu korrigieren, wenn ich eine falsche Methode habe.


Das FFT-Papier ist nicht komprimiert. Die Idee hinter der komprimierten Abtastung ist, dass Sie spärliche Daten aus spärlichen Zufallsstichproben wiederherstellen können, die aus einer anderen Domäne stammen (z. B. spärliche Bilder aus spärlichen Zufallsfrequenzdaten (z. B. MRT)). Dies kann die Erfassungszeit verkürzen, erhöht jedoch die Rechenkosten. Das FFT-Papier unterscheidet sich darin, dass Sie alle Daten in beiden Domänen haben und das Ziel ist, eine schnelle Berechnung zu erreichen.
Dranxo

Sie irren sich in Bezug auf die komprimierte Erfassung.
mirror2image

1
Können Sie näher darauf eingehen?
Dranxo

Compressed Sensing ist ein großer Bereich mit unscharfen Rändern, die Folgendes umfassen / verbunden , um nicht nur Erholung an sich , sondern ähnliche Bereiche Regularisierung, minimale Komplexität Beschäftigungen usw. Ursprünglich ist es ein sparsity eingeschränkt Problem , x in , R ^ n \ | x \ | _0 <k $, aber später wird es viel schlauer. Beginnen Sie mit dem Lesen von wikiLpAx=yRmyin,m>>nwithconstraint
mirror2image

Nein. Compressed Sensing bedeutet, dass Sie lösen, abhängig von . Es gibt viele weitreichende Anwendungen, aber wenn Sie das Candes-Romberg-Tao-Theorem irgendwann nicht mehr verwenden, verwirren Sie die Leute, wenn Sie Ihre Arbeit mit "Compressed Sensing" kennzeichnen. Hier ist eine Referenz: www-stat.stanford.edu/~candes/papers/spm-robustcs-v05.pdfmin|x|1Ax=y
dranxo
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.