Entspricht Kernel-PCA mit linearem Kernel Standard-PCA?


17

Wenn ich in der Kernel-PCA einen linearen Kernel wähle , wird sich das Ergebnis von der normalen linearen PCA unterscheiden ? Unterscheiden sich die Lösungen grundlegend oder gibt es einen genau definierten Zusammenhang?K(x,y)=xy

Antworten:


27

Zusammenfassung: Kernel-PCA mit linearem Kernel entspricht genau der Standard-PCA.

Sei die zentrierte Datenmatrix der Größe N × D mit D Variablen in Spalten und N Datenpunkten in Zeilen. Dann ist die D × D- Kovarianzmatrix gegeben durch XX / ( n - 1 ) , ihre Eigenvektoren sind Hauptachsen und Eigenwerte sind PC-Varianzen. Gleichzeitig kann man die sogenannte Gram-Matrix X X der Größe N × N betrachten . Es ist leicht zu sehen , dass es die gleichen Eigenwerte (dh PC - Varianzen) bis zum n - 1XN×DDND×DXX/(n1)XXN×Nn1 Der Faktor und seine Eigenvektoren sind Hauptkomponenten, die auf die Einheitennorm skaliert sind.

Dies war Standard PCA. Nun, im Kernel - PCA betrachten wir eine Funktion , die jeden Datenpunkt in einem anderen Vektorraum zuordnet , die in der Regel hat größere Dimensionalität D n e w , möglicherweise sogar unendlich. Die Idee von Kernel-PCA ist es, die Standard-PCA in diesem neuen Bereich durchzuführen.ϕ(x)Dnew

Da die Dimensionalität dieses neuen Raums sehr groß (oder unendlich) ist, ist es schwierig oder unmöglich, eine Kovarianzmatrix zu berechnen. Wir können jedoch den oben beschriebenen zweiten Ansatz auf PCA anwenden. In der Tat wird die Gram-Matrix immer noch dieselbe handhabbare Größe haben. Elemente dieser Matrix sind gegeben durch ϕ ( x i ) ϕ ( x j ) , die wir als Kernfunktion K ( x i , x j ) = ϕ ( x i ) ϕ ( x j ) bezeichnen.N×Nϕ(xi)ϕ(xj)K(xi,xj)=ϕ(xi)ϕ(xj) . Dies ist der sogenannte Kernel-Trick : Man muss eigentlich nie berechnen , sondern nur K ( ) . Eigenvektoren dieser Gram-Matrix sind die Hauptkomponenten im Zielraum, an denen wir interessiert sind.ϕ()K()

Die Antwort auf Ihre Frage wird jetzt offensichtlich. Wenn , reduziert sich die Kernel-Gram-Matrix auf X X ⊤, was der Standard-Gram-Matrix entspricht, und daher ändern sich die Hauptkomponenten nicht.K(x,y)=xyXX

Eine gut lesbare Referenz sind Scholkopf B, Smola A und Müller KR, Kernel Principal Component Analysis, 1999 , und es ist zu beachten, dass sie sich in Abbildung 1 explizit auf Standard-PCA beziehen, bei dem das Skalarprodukt als Kernelfunktion verwendet wird:

kernel PCA


Woher stammen diese Bilder in deiner Antwort? Aus irgendeinem Buch?
Pinocchio

@Pinocchio, die Figur stammt von Scholkopf et al. Artikel, auf den in meiner Antwort verwiesen und verwiesen wird.
Amöbe sagt Reinstate Monica

"Es ist leicht zu erkennen, dass es die gleichen Eigenwerte (dh PC-Varianzen) bis zum Faktor n − 1 hat " - würde das nicht bedeuten, dass sie dann nicht vollständig äquivalent sind? Nehmen wir an, ich habe eine Matrix mit n = 10 Samples, d = 200 Dimensionen. In Standard-PCA wäre ich in der Lage, die Daten auf 199 Dimensionen zu projizieren, wenn ich wollte, aber in Kernel-PCA mit linearem Kernel kann ich nur bis zu 10 Dimensionen.
Cesar

1
@Cesar, nein, wenn Sie n = 10 Samples haben, hat die Kovarianzmatrix den Rang 10-1 = 9 und Standard-PCA findet nur 9 Dimensionen (sowie Kernel-PCA). Siehe hier: stats.stackexchange.com/questions/123318 .
Amöbe sagt Reinstate Monica

Ich erhalte die Datei für den Referenzlink von Scholkopf B, Smola A und Müller KR nicht gefunden.
24.

5

XN×DDNX=UΣVU the principal components of X. The singular value decomposition of the linear kernel XX=UΣ2U has the same left singular vectors and so the same principal components.


For standard PCA, I thought we cared, about the SVD of the covariance matrix, so don't really understand how is the SVD of X relevant, can you please expand?
m0s

@m0s For PCA, we care about eigendecomposition of the covariance matrix which we usually perform by the SVD of the (centered) data matrix.
MrDrFenner

1

It seems to me that that a KPCA with linear kernel should be the same as the simple PCA.

The covariance matrix that you are going to get the eigenvalues from is the same:

linearKPCAmatrix=1lj=1lK(xj,xj)=1lj=1lxjxjT=PCAmatrix

You can check with more details here.


3
Your answer is correct in spirit, but the formula looks confusing. KPCA works with Gram matrix K(xi,xj), not with covariance matrix (for many nonlinear kernels it's actually impossible to compute covariance matrix as the target space has infinite dimensionality). See page 2 of the paper you cite.
amoeba says Reinstate Monica
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.