Singular Value Decomposition (SVD) einer Matrix EIN ist gegeben durch A =U S V.⊤ wo U. und V. sind orthogonale Matrizen und S. ist eine diagonale Matrix.
Ich versuche SVD von Hand zu machen: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Die letzte Zeile kehrt jedoch nicht mzurück. Warum? Es scheint etwas mit Anzeichen dieser Eigenvektoren zu tun zu haben ... Oder habe ich das Verfahren falsch verstanden?
Meine Frage bezieht sich allgemein auf Singular Value Decomposition (SVD) und insbesondere auf Latent Semantic Indexing (LSI). Angenommen, ich habe , das Häufigkeiten von 5 Wörtern für 7 Dokumente enthält.EINw o r d× do c u m e n tAword×document A_{word \times document} A = matrix(data=c(2,0,8,6,0,3,1, 1,6,0,1,7,0,1, 5,0,7,4,0,5,6, 7,0,8,5,0,8,5, 0,10,0,0,7,0,0), …
In der Originalarbeit von pLSA zeichnet der Autor Thomas Hoffman eine Parallele zwischen pLSA- und LSA-Datenstrukturen, die ich mit Ihnen diskutieren möchte. Hintergrund: Nehmen wir an, wir haben eine Sammlung von Dokumenten und ein Vokabular von BegriffenNNND={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, d_2, ...., d_N \rbraceMMMΩ={ω1,ω2,...,ωM}Ω={ω1,ω2,...,ωM}\Omega = \lbrace \omega_1, \omega_2, ..., \omega_M …
Ich verstehe nicht, warum die Reduzierung der Dimension wichtig ist. Was ist der Vorteil, wenn einige Daten erfasst und ihre Dimension reduziert werden?
Ich habe sowohl eine SVD-Zerlegung als auch eine mehrdimensionale Skalierung einer 6-dimensionalen Datenmatrix durchgeführt, um die Struktur der Daten besser zu verstehen. Leider sind alle Singularwerte in derselben Größenordnung, was bedeutet, dass die Dimensionalität der Daten tatsächlich 6 beträgt. Ich möchte jedoch die Werte der Singularvektoren interpretieren können. Zum Beispiel …
Angenommen, ich kann die SVD einer Matrix :X = U S V T.XXXX=USVTX=USVTX = USV^T Wenn ich eine orthogonale Matrix haben ( das heißt, ist quadratisch und orthonormal Spalten), dann wird der SVD von istA X A.AAAAAAXAXAXA XA=USWTXA=USWTXA = USW^T wobei .W=ATVW=ATVW = A^TV Aber kann etwas über die SVD …
Ich habe die großartigen Kommentare zum Umgang mit fehlenden Werten vor dem Anwenden von SVD gelesen, möchte aber anhand eines einfachen Beispiels wissen, wie dies funktioniert: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Wenn ich in der …
Angenommen, ich habe eine zentrierte Datenmatrix mit SVD .n×mn×mn \times mAAAA=UΣVTA=UΣVTA = U \Sigma V^{T} Zum Beispiel Spalten (Messungen), die Spektren mit verschiedenen Frequenzen sind. Die Matrix ist zentriert, sodass der Mittelwert der Zeilen der Matrix abgezogen wird. Dies dient zur Interpretation der linken Singularvektoren als Hauptkomponenten.m=50m=50m=50n=100n=100n=100 Ich bin daran …
Ich habe diese Formel in einem Lehrbuch gesehen: Die quadrierte Frobenius-Norm der ursprünglichen Matrix minus ihrer abgeschnittenen SVD (die als Approximationsfehler angesehen werden kann) entspricht der Summe der quadrierten Singularwerte.XX\mathbf XXkXk\mathbf X_k Warum ist das so? Wie kann man das beweisen?
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.