Als «eigenvalues» getaggte Fragen

Bei Fragen zur Berechnung oder Interpretation von Eigenwerten oder Eigenvektoren.


3
Warum muss die Korrelationsmatrix positiv semidefinit sein und was bedeutet es, positiv semidefinit zu sein oder nicht?
Ich habe die Bedeutung der positiven semidefiniten Eigenschaft von Korrelations- oder Kovarianzmatrizen untersucht. Ich suche Informationen zu Definition der positiven Halbbestimmtheit; Seine wichtigen Eigenschaften, praktische Implikationen; Die Konsequenz einer negativen Determinante, Auswirkung auf multivariate Analyse- oder Simulationsergebnisse usw.

1
Wenn ich eine zufällige symmetrische Matrix generiere, wie hoch ist die Wahrscheinlichkeit, dass sie positiv ist?
Ich hatte eine seltsame Frage, als ich einige konvexe Optimierungen ausprobierte. Die Frage ist: Angenommen, ich generiere zufällig (z. B. Standardnormalverteilung) eine Symmetriematrix (z. B. generiere ich eine obere Dreiecksmatrix und fülle die untere Hälfte aus, um sicherzustellen, dass sie symmetrisch ist) ? Gibt es sowieso die Wahrscheinlichkeit zu berechnen?N× …


4
Warum bevorzugt Andrew Ng SVD und nicht EIG der Kovarianzmatrix, um PCA zu machen?
Ich studiere PCA von Andrew Ngs Coursera-Kurs und anderen Materialien. In der ersten Aufgabe des Stanford NLP-Kurses cs224n und im Vorlesungsvideo von Andrew Ng wird anstelle der Eigenvektorzerlegung der Kovarianzmatrix eine Singulärwertzerlegung durchgeführt, und Ng sagt sogar, dass SVD numerisch stabiler ist als eigendecomposition. Nach meinem Verständnis sollten wir für …

1
Warum gibt es nur
Wenn in PCA die Anzahl der Dimensionen größer als (oder sogar gleich) die Anzahl der Abtastwerte , warum haben Sie dann höchstens Nicht-Null-Eigenvektoren? Mit anderen Worten, der Rang der Kovarianzmatrix unter den Dimensionen ist .dddNNNN−1N−1N-1d≥Nd≥Nd\ge NN−1N−1N-1 Beispiel: Ihre Stichproben sind vektorisierte Bilder mit der Dimension , aber Sie haben nur …


1
Erklären Sie, wie "eigen" beim Invertieren einer Matrix hilft
Meine Frage bezieht sich auf eine in geoR:::.negloglik.GRFoder ausgenutzte Berechnungstechnik geoR:::solve.geoR. In einem linearen gemischten Modellaufbau gilt: Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e wobei ββ\beta und bbb die festen bzw. zufälligen Effekte sind. Auch ist Σ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Bei der Abschätzung der Effekte muss berechnet werden, was normalerweise mit etwas wie , aber manchmal ist fast …

1
Warum liefern Eigen- und Svd-Zerlegungen einer Kovarianzmatrix, die auf spärlichen Daten basieren, unterschiedliche Ergebnisse?
Ich versuche, eine Kovarianzmatrix zu zerlegen, die auf einem dünn besetzten Datensatz basiert. Ich bemerke, dass die Summe von Lambda (erklärte Varianz), wie sie mit berechnet svdwird, mit zunehmend unsteten Daten verstärkt wird. Ohne Lücken, svdund eigendie gleichen Ergebnisse yeild. Dies scheint bei einer eigenZersetzung nicht zu passieren . Ich …
12 r  svd  eigenvalues 

3
Ist jede Korrelationsmatrix positiv eindeutig?
Ich spreche hier von Matrizen von Pearson-Korrelationen. Ich habe oft gehört, dass alle Korrelationsmatrizen positiv semidefinit sein müssen. Mein Verständnis ist, dass positive bestimmte Matrizen Eigenwerte , während positive semidefinite Matrizen Eigenwerte ≥ 0 haben müssen . Dies lässt mich denken, dass meine Frage wie folgt umformuliert werden kann: "Können …

1
Verwirrt über die visuelle Erklärung von Eigenvektoren: Wie können visuell unterschiedliche Datensätze dieselben Eigenvektoren haben?
Viele Statistiklehrbücher bieten eine intuitive Illustration der Eigenvektoren einer Kovarianzmatrix: Die Vektoren u und z bilden die Eigenvektoren (also Eigenachsen). Das macht Sinn. Was mich jedoch verwirrt, ist, dass wir Eigenvektoren aus der Korrelationsmatrix extrahieren , nicht die Rohdaten. Darüber hinaus können sehr unterschiedliche Rohdatensätze identische Korrelationsmatrizen aufweisen. Zum Beispiel …


2
Warum maximiert PCA die Gesamtvarianz der Projektion?
Christopher Bishop schreibt in seinem Buch Pattern Recognition and Machine Learning einen Beweis dafür, dass jede aufeinanderfolgende Hauptkomponente die Varianz der Projektion auf eine Dimension maximiert, nachdem die Daten in den orthogonalen Raum zu den zuvor ausgewählten Komponenten projiziert wurden. Andere zeigen ähnliche Beweise. Dies beweist jedoch nur, dass jede …


2
Warum kann ich keine gültige SVD von X durch Eigenwertzerlegung von XX 'und X'X erhalten?
Ich versuche SVD von Hand zu machen: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Die letzte Zeile kehrt jedoch nicht mzurück. Warum? Es scheint etwas mit Anzeichen dieser Eigenvektoren zu tun zu haben ... Oder habe ich das Verfahren falsch verstanden?
9 r  svd  eigenvalues 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.