Singular Value Decomposition (SVD) einer Matrix EIN ist gegeben durch A =U S V.⊤ wo U. und V. sind orthogonale Matrizen und S. ist eine diagonale Matrix.
Die Hauptkomponentenanalyse (PCA) wird üblicherweise durch eine Eigenzerlegung der Kovarianzmatrix erklärt. Sie kann aber auch über die Singular Value Decomposition (SVD) der Datenmatrix . Wie funktioniert es? Welche Verbindung besteht zwischen diesen beiden Ansätzen? Wie ist die Beziehung zwischen SVD und PCA?XX\mathbf X Oder mit anderen Worten, wie kann die …
Die Hauptkomponentenanalyse (PCA) kann zur Dimensionsreduzierung verwendet werden. Wie kann man nach einer solchen Dimensionsreduktion die ursprünglichen Variablen / Merkmale aus einer kleinen Anzahl von Hauptkomponenten näherungsweise rekonstruieren? Wie kann man alternativ mehrere Hauptkomponenten aus den Daten entfernen oder verwerfen? Mit anderen Worten, wie PCA umkehren? Angesichts der Tatsache, dass …
Ich beginne mit der Verwendung von dabble glmnetmit LASSO Regression , wo mein Ergebnis von Interesse dichotomous ist. Ich habe unten einen kleinen nachgebildeten Datenrahmen erstellt: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- …
Ich habe über Singular Value Decomposition (SVD) gelesen. In fast allen Lehrbüchern wird erwähnt, dass es die Matrix in drei Matrizen mit gegebener Spezifikation zerlegt. Aber was ist die Intuition hinter der Aufspaltung der Matrix in einer solchen Form? PCA und andere Algorithmen zur Dimensionsreduzierung sind in dem Sinne intuitiv, …
Biplot wird häufig verwendet, um Ergebnisse der Hauptkomponentenanalyse (und verwandter Techniken) anzuzeigen . Es ist eine Dual oder Overlay Streukomponente zeigt Belastungen und Komponenten Partituren gleichzeitig. Ich wurde heute von @amoeba darüber informiert, dass er abweichend von meinem Kommentar eine Antwort auf eine Frage gegeben hat, in der gefragt wird, …
Kann jemand eine gute Darstellung der Theorie der partiellen Regression der kleinsten Quadrate (online verfügbar) für jemanden empfehlen, der SVD und PCA versteht? Ich habe online in vielen Quellen nachgesehen und nichts gefunden, das die richtige Kombination aus Strenge und Zugänglichkeit bietet. Ich habe mich mit den Elementen des statistischen …
/ edit: Weitere Folgemaßnahmen können jetzt mit irlba :: prcomp_irlba durchgeführt werden / edit: verfolge meinen eigenen Beitrag. irlbaVerfügt nun über die Argumente "center" und "scale", mit denen Sie Hauptkomponenten berechnen können, z. pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Ich habe eine große, spärliche Anzahl Matrixvon Funktionen, …
Welchen Unterschied macht die Zentrierung (oder die Aufhebung der Bedeutung) Ihrer Daten für PCA? Ich habe gehört, dass dies die Mathematik erleichtert oder verhindert, dass der erste PC von den Variablen dominiert wird, aber ich habe das Gefühl, dass ich das Konzept noch nicht richtig verstanden habe. Zum Beispiel die …
Ich bin ein bisschen verwirrt darüber, wie die SVD bei der kollaborativen Filterung verwendet wird. Angenommen, ich habe ein soziales Diagramm und erstelle aus den Kanten eine Adjazenzmatrix. Dann nehme ich eine SVD (vergessen wir die Regularisierung, Lernraten, Sparsity-Optimierungen usw.). Wie verwende ich diese SVD, um meine Empfehlungen zu verbessern? …
Ich versuche nur, eine Behauptung zu wiederholen , die in dem folgenden Artikel , Finden von korrelierten Biklustern aus Genexpressionsdaten , gemacht wurde: Proposition 4. Wenn . dann haben wir:XichJ= RichCTJXichJ=RichCJTX_{IJ}=R_{I}C^{T}_{J} ich. Wenn ein perfekter Bicluster mit additivem Modell ist, dann ist ein perfekter Bicluster mit Korrelation auf Spalten; ii. …
Ich studiere PCA von Andrew Ngs Coursera-Kurs und anderen Materialien. In der ersten Aufgabe des Stanford NLP-Kurses cs224n und im Vorlesungsvideo von Andrew Ng wird anstelle der Eigenvektorzerlegung der Kovarianzmatrix eine Singulärwertzerlegung durchgeführt, und Ng sagt sogar, dass SVD numerisch stabiler ist als eigendecomposition. Nach meinem Verständnis sollten wir für …
Ich habe die lineare Diskriminanzanalyse (LDA) aus der scikit-learnmaschinellen Lernbibliothek (Python) zur Dimensionsreduktion verwendet und war ein wenig neugierig auf die Ergebnisse. Ich frage mich jetzt, was die LDA scikit-learntut, damit die Ergebnisse anders aussehen als beispielsweise ein manueller Ansatz oder eine in R durchgeführte LDA. Es wäre großartig, wenn …
Bei einer PCA (oder SVD) Angleichung der Matrix XXX mit einer Matrix X , wir wissen , dass X die beste Low-Rang Approximation ist X .X^X^\hat XX^X^\hat XXXX Ist dies nach der induzierten & Par; ⋅ & par;2∥⋅∥2\parallel \cdot \parallel_2 Norm (dh der größten Eigenwertnorm) oder nach der Frobenius & …
Was ist der beste Weg, um die Singulärwertzerlegung (SVD) einer sehr großen positiven Matrix (65M x 3,4M) zu berechnen, bei der die Daten extrem dünn sind? Weniger als 0,1% der Matrix ist nicht Null. Ich brauche einen Weg, der: passt in den Speicher (ich weiß, dass Online-Methoden existieren) wird in …
Ich habe eine Korrelationsmatrix von Sicherheitsrenditen, deren Determinante Null ist. (Dies ist ein wenig überraschend, da die Stichprobenkorrelationsmatrix und die entsprechende Kovarianzmatrix theoretisch eindeutig positiv sein sollten.) Meine Hypothese ist, dass mindestens ein Wertpapier linear von anderen Wertpapieren abhängig ist. Gibt es eine Funktion in R, die nacheinander für jede …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.