Wenn eine beobachtete Datenmatrix ist und eine latente Variable ist, dann
Wobei der Mittelwert der beobachteten Daten ist und der Gaußsche Fehler / Rauschen in Daten ist und als Hauptunterraum bezeichnet wird.
Meine Frage ist, wenn normale PCA verwendet wird, würden wir einen Satz orthonormaler Eigenvektoren für die Folgendes gilt
In PPCA ist jedoch weder orthonormal noch Eigenvektor. Wie kann ich Hauptkomponenten von ?
Meinem Instinkt folgend suchte ich in MATLAB nach ppca , wo ich auf diese Zeile stieß:
Bei der Konvergenz überspannen die Spalten von W den Unterraum, sind jedoch nicht orthonormal. ppca erhält die orthonormalen Koeffizienten Koeffizient für die Komponenten durch Orthogonalisierung von W.
Ich habe den ppca-Code ein wenig geändert, um das W zu erhalten , habe es ausgeführt und nach der Orthogonalisierung habe ich P von W erhalten .
Warum ergab diese Orthogonalisierung Eigenvektoren, entlang derer der größte Teil der Varianz sichtbar wird?
Ich gehe davon aus, dass die Orthogonalisierung mir eine Reihe von orthogonalen / orthonormalen Vektoren gibt, die den Hauptunterraum überspannen, aber warum ist diese orthogonalisierte resultierende Matrix gleich der Eigenmatrix (ich weiß, dass die Eigenmatrix in pca auch orthonormal ist)? Kann ich annehmen, dass der Hauptunterraum nur von einem eindeutigen Satz orthonormaler Vektoren überspannt wird? In diesem Fall stimmen beide Ergebnisse immer überein.