Als «svd» getaggte Fragen

Singular Value Decomposition (SVD) einer Matrix EIN ist gegeben durch EIN=U.S.V. wo U. und V. sind orthogonale Matrizen und S. ist eine diagonale Matrix.

3
Cholesky versus eigendecomposition für die Entnahme von Stichproben aus einer multivariaten Normalverteilung
Ich würde gerne eine Probe ziehen x∼N(0,Σ)x∼N(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right) . Wikipedia schlägt vor, entweder Cholesky oder Eigendecomposition zu verwenden , dh Σ=D1DT1Σ=D1D1T \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T oder Σ=QΛQTΣ=QΛQT \mathbf{\Sigma} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T Und daher kann die Probe gezogen werden über: x=D1vx=D1v \mathbf{x} = \mathbf{D}_1 \mathbf{v} oder x = Q Λ−-√vx=Q.Λv …

2
Wann kombinieren wir Dimensionsreduktion mit Clustering?
Ich versuche, Clustering auf Dokumentebene durchzuführen. Ich habe die Term-Document-Frequenzmatrix konstruiert und versuche, diese hochdimensionalen Vektoren mit k-Mitteln zu clustern. Anstatt direkt zu clustern, habe ich zuerst die LSA-Singularvektorzerlegung (Latent Semantic Analysis) angewendet, um die U, S, Vt-Matrizen zu erhalten, eine geeignete Schwelle unter Verwendung des Geröllplots ausgewählt und Clusterbildung …


1
Implementiert GSVD alle linearen multivariaten Techniken?
Ich bin auf den Artikel von Hervé Abdi über generalisierte SVD gestoßen. Der Autor erwähnte: Die generalisierte SVD (GSVD) zerlegt eine rechteckige Matrix und berücksichtigt Einschränkungen, die den Zeilen und Spalten der Matrix auferlegt sind. Die GSVD liefert eine gewichtete verallgemeinerte Schätzung der kleinsten Quadrate einer gegebenen Matrix durch eine …




1
Warum liefern Eigen- und Svd-Zerlegungen einer Kovarianzmatrix, die auf spärlichen Daten basieren, unterschiedliche Ergebnisse?
Ich versuche, eine Kovarianzmatrix zu zerlegen, die auf einem dünn besetzten Datensatz basiert. Ich bemerke, dass die Summe von Lambda (erklärte Varianz), wie sie mit berechnet svdwird, mit zunehmend unsteten Daten verstärkt wird. Ohne Lücken, svdund eigendie gleichen Ergebnisse yeild. Dies scheint bei einer eigenZersetzung nicht zu passieren . Ich …
12 r  svd  eigenvalues 

3
SVD einer Matrix mit fehlenden Werten
Angenommen, ich habe eine Empfehlungsmatrix im Netflix-Stil und möchte ein Modell erstellen, das potenzielle zukünftige Filmbewertungen für einen bestimmten Benutzer vorhersagt. Mit dem Ansatz von Simon Funk würde man eine stochastische Gradientenabsenkung verwenden, um die Frobenius-Norm zwischen der Vollmatrix und der Element-für-Element * -Nutzer-für-Benutzer-Matrix in Kombination mit einem L2-Regularisierungsterm zu …

1
Unterschied zwischen Scikit-Learn-Implementierungen von PCA und TruncatedSVD
Ich verstehe die Beziehung zwischen Hauptkomponentenanalyse und Singularwertzerlegung auf algebraischer / exakter Ebene. Meine Frage bezieht sich auf die Implementierung von Scikit-Learn . In der Dokumentation heißt es: " [TruncatedSVD] ist PCA sehr ähnlich, arbeitet jedoch direkt mit Stichprobenvektoren anstatt mit einer Kovarianzmatrix. " Dies würde den algebraischen Unterschied zwischen …
12 pca  scikit-learn  svd  scipy 

1
Wie zeichnet man einen Geröllplot in Python? [geschlossen]
Geschlossen. Diese Frage ist nicht zum Thema . Derzeit werden keine Antworten akzeptiert. Möchten Sie diese Frage verbessern? Aktualisieren Sie die Frage so dass es beim Thema für Kreuz Validated. Geschlossen im vergangenen Jahr . Ich verwende eine singuläre Vektorzerlegung auf einer Matrix und erhalte die U-, S- und Vt-Matrizen. …

1
Warum ist Nicht-Negativität für kollaborative Filter- / Empfehlungssysteme wichtig?
In allen modernen Empfehlungssystemen, die ich gesehen habe und die auf einer Matrixfaktorisierung beruhen, wird eine nicht negative Matrixfaktorisierung für die Benutzerfilmmatrix durchgeführt. Ich kann verstehen, warum Nicht-Negativität für die Interpretierbarkeit wichtig ist und / oder wenn Sie spärliche Faktoren wünschen. Aber wenn Sie sich nur für die Prognoseleistung interessieren, …

1
Was sind die Vor- und Nachteile der Anwendung punktueller gegenseitiger Informationen auf eine Wortkoexistenzmatrix vor der SVD?
Eine Möglichkeit zum Generieren von Worteinbettungen ist die folgende ( Spiegelung ): Holen Sie sich eine Korpora, zB "Ich fliege gerne. Ich mag NLP. Ich mag tiefes Lernen." Erstellen Sie daraus das Wort Cooccurrence Matrix: Führen Sie SVD für X.XX durch und behalten Sie die ersten kkk Spalten von U …

3
K-Mittelwerte für Kosinusähnlichkeiten vs. euklidischen Abstand (LSA)
Ich verwende die latente semantische Analyse, um einen Korpus von Dokumenten im Raum niedrigerer Dimensionen darzustellen. Ich möchte diese Dokumente mit k-means in zwei Gruppen zusammenfassen. Vor einigen Jahren habe ich dies mit Pythons Gensim gemacht und meinen eigenen k-means-Algorithmus geschrieben. Ich habe die Cluster-Schwerpunkte anhand des euklidischen Abstands bestimmt, …

1
R lineare Regression kategoriale Variable "versteckter" Wert
Dies ist nur ein Beispiel, auf das ich mehrmals gestoßen bin, daher habe ich keine Beispieldaten. Ausführen eines linearen Regressionsmodells in R: a.lm = lm(Y ~ x1 + x2) x1ist eine stetige Variable. x2ist kategorisch und hat drei Werte, z. B. "Niedrig", "Mittel" und "Hoch". Die von R gegebene Ausgabe …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.