Warum beschäftigen wir uns mit den Eigenvektoren der Autokorrelation anstelle der Daten selbst?


8

Wie intuitiv zu verstehen, warum Eigenvektoren der Autokorrelationsmatrix verwendet werden, aber Eigenvektoren der aus zeitlichen Stichproben aufgebauten Matrix keinen Sinn haben und nicht verwendet werden? Zum Beispiel bei der Erkennung eines harmonischen Signals in additivem Rauschen.

Antworten:


5

Einige Gründe, warum es besser ist, mit der Autokorrelationsmatrix zu arbeiten, als mit einer Matrix mit Ihren Beobachtungen:

  • Wenn Sie alle Ihre Beobachtungen berücksichtigen möchten und viele Daten haben, werden Sie am Ende ziemlich große Matrizen manipulieren (invertieren, multiplizieren). Wenn Sie mit der Autokorrelationsmatrix arbeiten, "fassen" Sie Ihre Daten einmal zusammen (in einem ziemlich effizienten Schritt, der nur eine FFT und eine inverse FFT erfordert), und von da an manipulieren Sie einfach Ihre Autokorrelationsmatrix der Größe wobei P Ihre ist Modellreihenfolge (zum Beispiel für AR-Modellierung oder sinusförmige Modellierung).P.×P.P.
  • Bei einigen Daten funktioniert es einfach nicht, die Rohbeobachtungen numerisch zu verwenden, da Sie auf Situationen stoßen, in denen Sie mit Matrizen umgehen müssen, von denen nicht garantiert wird, dass sie positiv definit sind.

Betrachten wir zum Beispiel zwei Ansätze zur AR-Modellanpassung.

Direkte Nutzung der Datenmatrix

Der empirische quadratische Rekonstruktionsfehler Ihrer Daten ist:

ϵ=xT.x+xT.Γein+einT.ΓT.x+einT.ΓT.Γein

einxΓein

ein=- -(ΓT.Γ)- -1ΓT.x

ΓT.Γ

Zufällige Prozessansicht

Wenn Sie einen "zufälligen Prozess" -Winkel an das Problem anpassen, müssen Sie die Menge minimieren (den erwarteten Wert des Fehlers):

ϵ=rx(0)+2rein+einT.R.ein

Und am Ende haben Sie die schmackhaftere Lösung:

ein=- -R.- -1r

R.

Es sieht so aus, als ob Ihr Problem das der sinusförmigen Modellierung ist (und nicht der AR-Modellierung). Hier wird viel von Hand gewinkt, aber was ich über die AR-Modellierung und die Hürden bei der Verwendung der Rohdatenmatrix gesagt habe; gilt auch für die sinusförmige Modellierung - wobei die Eigenwertzerlegung die problematische Operation anstelle der Matrixinversion ist.


2

Zunächst werden Eigenvektoren und Eigenwerte für Operatoren definiert. Korrelation ist eine Operation.

Zweitens sind die Eigenvektoren der Autokorrelation besonders interessant, weil sie die Varianz des Signals in einer linearen Regression am effizientesten erklären. Mit anderen Worten, für eine feste Anzahl von Vektoren minimiert die Auswahl der Eigenvektoren den mittleren quadratischen Fehler, bei dem das Signal als lineare Summe der Vektoren modelliert wird. Diese Technik wird als Hauptkomponentenanalyse bezeichnet .

Wenn Sie Ihre Vorstellung von einem "harmonischen" Signal erweitern können, kann ich vielleicht weiter darauf eingehen.


Ja, und darf ich hinzufügen, man kann auch mit der Datenmatrix in der Hauptkomponentenanalyse arbeiten. Dies beinhaltet jedoch stattdessen eine Singularwertzerlegung.
Bryan
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.