Singular Value Decomposition (SVD) einer Matrix EIN ist gegeben durch A =U S V.⊤ wo U. und V. sind orthogonale Matrizen und S. ist eine diagonale Matrix.
Ich untersuche verschiedene Techniken, die beim Clustering von Dokumenten zum Einsatz kommen, und möchte einige Zweifel in Bezug auf PCA (Principal Component Analysis) und LSA (Latent Semantic Analysis) klären. Erste Sache - was sind die Unterschiede zwischen ihnen? Ich weiß, dass in PCA die SVD-Zerlegung auf die Term-Kovarianz-Matrix angewendet wird, …
In dieser Frage geht es um eine effiziente Methode zur Berechnung von Hauptkomponenten. Viele Texte zur linearen PCA befürworten die Verwendung der Singulärwertzerlegung der fallweisen Daten . Das heißt, wenn wir Daten und wollen die Variablen (seine ersetzen Spalten ) von Hauptkomponenten, wir tun SVD: X = U S V …
Bei der kollaborativen Filterung gibt es Werte, die nicht ausgefüllt sind. Angenommen, ein Benutzer hat keinen Film angesehen, und wir müssen dort ein 'na' einfügen. Wenn ich eine SVD dieser Matrix erstellen möchte, muss ich eine Zahl eingeben, z. B. 0. Wenn ich die Matrix faktorisiere, kann ich ähnliche Benutzer …
Ich bin auf ein Szenario gestoßen, in dem ich 10 Signale / Person für 10 Personen (also 100 Samples) mit 14000 Datenpunkten (Dimensionen) habe, die ich an einen Klassifikator übergeben muss. Ich möchte die Dimensionalität dieser Daten reduzieren, und PCA scheint der richtige Weg zu sein. Ich konnte jedoch nur …
Ich beobachte ein sehr seltsames Verhalten beim SVD-Ergebnis von Zufallsdaten, das ich sowohl in Matlab als auch in R reproduzieren kann. Es scheint ein numerisches Problem in der LAPACK-Bibliothek zu sein. ist es? Ich ziehe Proben aus dem dimensionalen Gaußschen mit dem Mittelwert Null und der Identitätskovarianz: . Ich setze …
Ich habe verstanden, wie die Gratregression die Koeffizienten geometrisch gegen Null schrumpft. Außerdem weiß ich, wie man das im speziellen "Orthonormalen Fall" beweist, aber ich bin verwirrt, wie das im allgemeinen Fall über "Spektrale Zerlegung" funktioniert.
Ich weiß, wie man PCA und SVD mathematisch berechnet, und ich weiß, dass beide auf die lineare Regression der kleinsten Quadrate angewendet werden können. Der Hauptvorteil von SVD scheint mathematisch zu sein, dass es auf nicht quadratische Matrizen angewendet werden kann. Beide konzentrieren sich auf die Zerlegung der Matrix. Gibt …
Ich habe ein paar kurze Fragen zu PCA: Geht die PCA davon aus, dass der Datensatz Gaußsch ist? Was passiert, wenn ich eine PCA auf inhärent nichtlineare Daten anwende? Bei einem gegebenen Datensatz besteht der Prozess darin, zunächst die Mittelwerte zu normalisieren, die Varianz auf 1 zu setzen, eine SVD …
Ich möchte einen Biplot für die Hauptkomponentenanalyse (PCA) in JavaScript implementieren. Meine Frage ist, wie ermittle ich die Koordinaten der Pfeile aus dem U,V,DU,V,DU,V,D Ausgang der Singular Vector Decomposition (SVD) der Datenmatrix? Hier ist ein Beispiel-Biplot von R: biplot(prcomp(iris[,1:4])) Ich habe versucht, es im Wikipedia-Artikel über Biplot nachzuschlagen, aber es …
Ich habe kürzlich Skillicorns Buch über Matrixzerlegungen gelesen und war ein bisschen enttäuscht, da es sich an ein junges Publikum richtete. Ich möchte (für mich und andere) eine kurze Bibliographie wesentlicher Arbeiten (Umfragen, aber auch bahnbrechende Arbeiten) zu Matrixzerlegungen zusammenstellen. Was ich in erster Linie im Auge habe, ist etwas …
Angenommen, ich habe eine dichte Matrix der Größe und der SVD-ZerlegungIn ich die SVD berechnen sich wie folgt: .EINEIN \textbf{A}m × nm×nm \times nA = U S V⊤.EIN=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) Wenn eine neue -te Zeile zu hinzugefügt wird , kann man die neue SVD-Zerlegung basierend auf der alten (dh unter Verwendung von …
Der Wikipedia-Artikel zur Hauptkomponentenanalyse besagt dies Es gibt effiziente Algorithmen zur Berechnung der SVD von ohne dass die Matrix muss. Daher ist die Berechnung der SVD heute die Standardmethode zur Berechnung einer Hauptkomponentenanalyse aus einer Datenmatrix, sofern nicht nur eine Handvoll Komponenten erforderlich sind.XXXXTXXTXX^TX Könnte mir jemand sagen, um welche …
Angenommen, wir haben NNN messbare Variablen , führen eine Anzahl von Messungen durch und möchten dann eine Singulärwertzerlegung für die Ergebnisse durchführen, um die Achsen mit der höchsten Varianz für die Punkte zu finden im dimensionalen Raum. ( Hinweis: davon aus, dass die Mittel der bereits abgezogen worden, so ⟨ …
Ich möchte einen Algorithmus in einem Artikel implementieren, der Kernel-SVD zum Zerlegen einer Datenmatrix verwendet. Ich habe also Materialien über Kernelmethoden und Kernel-PCA usw. gelesen. Aber es ist für mich immer noch sehr dunkel, besonders wenn es um mathematische Details geht, und ich habe ein paar Fragen. Warum Kernelmethoden? Oder …
Sind PCA-Komponenten (in der Hauptkomponentenanalyse) statistisch unabhängig, wenn unsere Daten multivariat normalverteilt sind? Wenn ja, wie kann dies nachgewiesen werden? Ich frage, weil ich diesen Beitrag gesehen habe , in dem in der oberen Antwort steht: PCA geht nicht von einer expliziten Gaußschen Annahme aus. Es werden die Eigenvektoren gefunden, …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.