In der heutigen Mustererkennungsklasse sprach mein Professor über PCA, Eigenvektoren und Eigenwerte. Ich habe die Mathematik verstanden. Wenn ich gebeten werde, Eigenwerte usw. zu finden, mache ich das wie eine Maschine richtig. Aber ich habe es nicht verstanden . Ich habe den Zweck nicht verstanden. Ich habe es nicht gespürt. …
Ich habe die Bedeutung der positiven semidefiniten Eigenschaft von Korrelations- oder Kovarianzmatrizen untersucht. Ich suche Informationen zu Definition der positiven Halbbestimmtheit; Seine wichtigen Eigenschaften, praktische Implikationen; Die Konsequenz einer negativen Determinante, Auswirkung auf multivariate Analyse- oder Simulationsergebnisse usw.
Ich hatte eine seltsame Frage, als ich einige konvexe Optimierungen ausprobierte. Die Frage ist: Angenommen, ich generiere zufällig (z. B. Standardnormalverteilung) eine Symmetriematrix (z. B. generiere ich eine obere Dreiecksmatrix und fülle die untere Hälfte aus, um sicherzustellen, dass sie symmetrisch ist) ? Gibt es sowieso die Wahrscheinlichkeit zu berechnen?N× …
Welchen Unterschied macht die Zentrierung (oder die Aufhebung der Bedeutung) Ihrer Daten für PCA? Ich habe gehört, dass dies die Mathematik erleichtert oder verhindert, dass der erste PC von den Variablen dominiert wird, aber ich habe das Gefühl, dass ich das Konzept noch nicht richtig verstanden habe. Zum Beispiel die …
Ich studiere PCA von Andrew Ngs Coursera-Kurs und anderen Materialien. In der ersten Aufgabe des Stanford NLP-Kurses cs224n und im Vorlesungsvideo von Andrew Ng wird anstelle der Eigenvektorzerlegung der Kovarianzmatrix eine Singulärwertzerlegung durchgeführt, und Ng sagt sogar, dass SVD numerisch stabiler ist als eigendecomposition. Nach meinem Verständnis sollten wir für …
Wenn in PCA die Anzahl der Dimensionen größer als (oder sogar gleich) die Anzahl der Abtastwerte , warum haben Sie dann höchstens Nicht-Null-Eigenvektoren? Mit anderen Worten, der Rang der Kovarianzmatrix unter den Dimensionen ist .dddNNNN−1N−1N-1d≥Nd≥Nd\ge NN−1N−1N-1 Beispiel: Ihre Stichproben sind vektorisierte Bilder mit der Dimension , aber Sie haben nur …
Wenn wir die Eigenvektoren der Kovarianzmatrix betrachten, erhalten wir die Richtungen der maximalen Varianz (der erste Eigenvektor ist die Richtung, in der die Daten am stärksten variieren, usw.); Dies wird als Hauptkomponentenanalyse (PCA) bezeichnet. Ich fragte mich, was es bedeuten würde, auf die Eigenvektoren / Werte der gegenseitigen Informationsmatrix zu …
Meine Frage bezieht sich auf eine in geoR:::.negloglik.GRFoder ausgenutzte Berechnungstechnik geoR:::solve.geoR. In einem linearen gemischten Modellaufbau gilt: Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e wobei ββ\beta und bbb die festen bzw. zufälligen Effekte sind. Auch ist Σ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Bei der Abschätzung der Effekte muss berechnet werden, was normalerweise mit etwas wie , aber manchmal ist fast …
Ich versuche, eine Kovarianzmatrix zu zerlegen, die auf einem dünn besetzten Datensatz basiert. Ich bemerke, dass die Summe von Lambda (erklärte Varianz), wie sie mit berechnet svdwird, mit zunehmend unsteten Daten verstärkt wird. Ohne Lücken, svdund eigendie gleichen Ergebnisse yeild. Dies scheint bei einer eigenZersetzung nicht zu passieren . Ich …
Ich spreche hier von Matrizen von Pearson-Korrelationen. Ich habe oft gehört, dass alle Korrelationsmatrizen positiv semidefinit sein müssen. Mein Verständnis ist, dass positive bestimmte Matrizen Eigenwerte , während positive semidefinite Matrizen Eigenwerte ≥ 0 haben müssen . Dies lässt mich denken, dass meine Frage wie folgt umformuliert werden kann: "Können …
Viele Statistiklehrbücher bieten eine intuitive Illustration der Eigenvektoren einer Kovarianzmatrix: Die Vektoren u und z bilden die Eigenvektoren (also Eigenachsen). Das macht Sinn. Was mich jedoch verwirrt, ist, dass wir Eigenvektoren aus der Korrelationsmatrix extrahieren , nicht die Rohdaten. Darüber hinaus können sehr unterschiedliche Rohdatensätze identische Korrelationsmatrizen aufweisen. Zum Beispiel …
Ich mache eine Matlab-Analyse von MRT-Daten, bei der ich eine PCA mit einer Matrixgröße von 10304 x 236 durchgeführt habe, wobei 10304 die Anzahl der Voxel (stellen Sie sich diese als Pixel vor) und 236 die Anzahl der Zeitpunkte ist. Die PCA gibt mir 236 Eigenwerte und ihre zugehörigen Koeffizienten. …
Christopher Bishop schreibt in seinem Buch Pattern Recognition and Machine Learning einen Beweis dafür, dass jede aufeinanderfolgende Hauptkomponente die Varianz der Projektion auf eine Dimension maximiert, nachdem die Daten in den orthogonalen Raum zu den zuvor ausgewählten Komponenten projiziert wurden. Andere zeigen ähnliche Beweise. Dies beweist jedoch nur, dass jede …
Wenn XXX eine beobachtete Datenmatrix ist und YYY eine latente Variable ist, dann X=WY+μ+ϵX=WY+μ+ϵX=WY+\mu+\epsilon Wobei μμ\mu der Mittelwert der beobachteten Daten ist und ϵϵ\epsilon der Gaußsche Fehler / Rauschen in Daten ist und WWW als Hauptunterraum bezeichnet wird. Meine Frage ist, wenn normale PCA verwendet wird, würden wir einen Satz …
Ich versuche SVD von Hand zu machen: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Die letzte Zeile kehrt jedoch nicht mzurück. Warum? Es scheint etwas mit Anzeichen dieser Eigenvektoren zu tun zu haben ... Oder habe ich das Verfahren falsch verstanden?
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.