Singular Value Decomposition (SVD) einer Matrix EIN ist gegeben durch A =U S V.⊤ wo U. und V. sind orthogonale Matrizen und S. ist eine diagonale Matrix.
Ich würde gerne eine Probe ziehen x∼N(0,Σ)x∼N(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right) . Wikipedia schlägt vor, entweder Cholesky oder Eigendecomposition zu verwenden , dh Σ=D1DT1Σ=D1D1T \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T oder Σ=QΛQTΣ=QΛQT \mathbf{\Sigma} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T Und daher kann die Probe gezogen werden über: x=D1vx=D1v \mathbf{x} = \mathbf{D}_1 \mathbf{v} oder x = Q Λ−-√vx=Q.Λv …
Ich versuche, Clustering auf Dokumentebene durchzuführen. Ich habe die Term-Document-Frequenzmatrix konstruiert und versuche, diese hochdimensionalen Vektoren mit k-Mitteln zu clustern. Anstatt direkt zu clustern, habe ich zuerst die LSA-Singularvektorzerlegung (Latent Semantic Analysis) angewendet, um die U, S, Vt-Matrizen zu erhalten, eine geeignete Schwelle unter Verwendung des Geröllplots ausgewählt und Clusterbildung …
Betrachten Sie eine einfache Zeitreihe: > tp <- seq_len(10) > tp [1] 1 2 3 4 5 6 7 8 9 10 Für diese Zeitreihe können wir eine Adjazenzmatrix berechnen, die die zeitlichen Verknüpfungen zwischen Stichproben darstellt. Bei der Berechnung dieser Matrix wird zum Zeitpunkt 0 eine imaginäre Stelle hinzugefügt, …
Ich bin auf den Artikel von Hervé Abdi über generalisierte SVD gestoßen. Der Autor erwähnte: Die generalisierte SVD (GSVD) zerlegt eine rechteckige Matrix und berücksichtigt Einschränkungen, die den Zeilen und Spalten der Matrix auferlegt sind. Die GSVD liefert eine gewichtete verallgemeinerte Schätzung der kleinsten Quadrate einer gegebenen Matrix durch eine …
Möglicherweise nicht zum Thema hier, aber es gibt bereits mehrere ( eine , zwei ) verwandte Fragen. Durch Stöbern in der Literatur (oder bei einer Google-Suche nach abgeschnittenen SVD-Algorithmen) tauchen viele Artikel auf , die abgeschnittene SVDs auf verschiedene Weise verwenden, und behaupten (frustrierend, oft ohne Angabe ), dass es …
Wenn ich eine 2-D-Matrix konstruiere, die vollständig aus Zufallsdaten besteht, würde ich erwarten, dass die PCA- und SVD-Komponenten im Wesentlichen nichts erklären. Stattdessen scheint die erste SVD-Spalte 75% der Daten zu erklären. Wie kann das möglich sein? Was mache ich falsch? Hier ist die Handlung: Hier ist der R-Code: set.seed(1) …
Ich versuche, eine Kovarianzmatrix zu zerlegen, die auf einem dünn besetzten Datensatz basiert. Ich bemerke, dass die Summe von Lambda (erklärte Varianz), wie sie mit berechnet svdwird, mit zunehmend unsteten Daten verstärkt wird. Ohne Lücken, svdund eigendie gleichen Ergebnisse yeild. Dies scheint bei einer eigenZersetzung nicht zu passieren . Ich …
Angenommen, ich habe eine Empfehlungsmatrix im Netflix-Stil und möchte ein Modell erstellen, das potenzielle zukünftige Filmbewertungen für einen bestimmten Benutzer vorhersagt. Mit dem Ansatz von Simon Funk würde man eine stochastische Gradientenabsenkung verwenden, um die Frobenius-Norm zwischen der Vollmatrix und der Element-für-Element * -Nutzer-für-Benutzer-Matrix in Kombination mit einem L2-Regularisierungsterm zu …
Ich verstehe die Beziehung zwischen Hauptkomponentenanalyse und Singularwertzerlegung auf algebraischer / exakter Ebene. Meine Frage bezieht sich auf die Implementierung von Scikit-Learn . In der Dokumentation heißt es: " [TruncatedSVD] ist PCA sehr ähnlich, arbeitet jedoch direkt mit Stichprobenvektoren anstatt mit einer Kovarianzmatrix. " Dies würde den algebraischen Unterschied zwischen …
Geschlossen. Diese Frage ist nicht zum Thema . Derzeit werden keine Antworten akzeptiert. Möchten Sie diese Frage verbessern? Aktualisieren Sie die Frage so dass es beim Thema für Kreuz Validated. Geschlossen im vergangenen Jahr . Ich verwende eine singuläre Vektorzerlegung auf einer Matrix und erhalte die U-, S- und Vt-Matrizen. …
In allen modernen Empfehlungssystemen, die ich gesehen habe und die auf einer Matrixfaktorisierung beruhen, wird eine nicht negative Matrixfaktorisierung für die Benutzerfilmmatrix durchgeführt. Ich kann verstehen, warum Nicht-Negativität für die Interpretierbarkeit wichtig ist und / oder wenn Sie spärliche Faktoren wünschen. Aber wenn Sie sich nur für die Prognoseleistung interessieren, …
Eine Möglichkeit zum Generieren von Worteinbettungen ist die folgende ( Spiegelung ): Holen Sie sich eine Korpora, zB "Ich fliege gerne. Ich mag NLP. Ich mag tiefes Lernen." Erstellen Sie daraus das Wort Cooccurrence Matrix: Führen Sie SVD für X.XX durch und behalten Sie die ersten kkk Spalten von U …
Ich verwende die latente semantische Analyse, um einen Korpus von Dokumenten im Raum niedrigerer Dimensionen darzustellen. Ich möchte diese Dokumente mit k-means in zwei Gruppen zusammenfassen. Vor einigen Jahren habe ich dies mit Pythons Gensim gemacht und meinen eigenen k-means-Algorithmus geschrieben. Ich habe die Cluster-Schwerpunkte anhand des euklidischen Abstands bestimmt, …
Dies ist nur ein Beispiel, auf das ich mehrmals gestoßen bin, daher habe ich keine Beispieldaten. Ausführen eines linearen Regressionsmodells in R: a.lm = lm(Y ~ x1 + x2) x1ist eine stetige Variable. x2ist kategorisch und hat drei Werte, z. B. "Niedrig", "Mittel" und "Hoch". Die von R gegebene Ausgabe …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.