Als «matrix-decomposition» getaggte Fragen

Die Matrixzerlegung bezieht sich auf den Prozess der Faktorisierung einer Matrix in ein Produkt kleinerer Matrizen. Durch Zerlegen einer großen Matrix können viele Matrixalgorithmen effizient ausgeführt werden.

1
Dimensionsreduktion (SVD oder PCA) auf einer großen, dünn besetzten Matrix
/ edit: Weitere Folgemaßnahmen können jetzt mit irlba :: prcomp_irlba durchgeführt werden / edit: verfolge meinen eigenen Beitrag. irlbaVerfügt nun über die Argumente "center" und "scale", mit denen Sie Hauptkomponenten berechnen können, z. pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Ich habe eine große, spärliche Anzahl Matrixvon Funktionen, …


2
Warum PCA von Daten mittels SVD der Daten?
In dieser Frage geht es um eine effiziente Methode zur Berechnung von Hauptkomponenten. Viele Texte zur linearen PCA befürworten die Verwendung der Singulärwertzerlegung der fallweisen Daten . Das heißt, wenn wir Daten und wollen die Variablen (seine ersetzen Spalten ) von Hauptkomponenten, wir tun SVD: X = U S V …

1
Effiziente Berechnung der inversen Matrix in R
Ich muss die inverse Matrix berechnen und habe die solveFunktion verwendet. Während es bei kleinen Matrizen gut funktioniert solve, ist es bei großen Matrizen tendenziell sehr langsam. Ich habe mich gefragt, ob es eine andere Funktion oder Kombination von Funktionen gibt (über SVD, QR, LU oder andere Zerlegungsfunktionen), die mir …

5
Grundlegende Arbeiten zu Matrixzerlegungen
Ich habe kürzlich Skillicorns Buch über Matrixzerlegungen gelesen und war ein bisschen enttäuscht, da es sich an ein junges Publikum richtete. Ich möchte (für mich und andere) eine kurze Bibliographie wesentlicher Arbeiten (Umfragen, aber auch bahnbrechende Arbeiten) zu Matrixzerlegungen zusammenstellen. Was ich in erster Linie im Auge habe, ist etwas …

1
Aktualisieren der SVD-Zerlegung nach dem Hinzufügen einer neuen Zeile zur Matrix
Angenommen, ich habe eine dichte Matrix der Größe und der SVD-ZerlegungIn ich die SVD berechnen sich wie folgt: .EINEIN \textbf{A}m × nm×nm \times nA = U S V⊤.EIN=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) Wenn eine neue -te Zeile zu hinzugefügt wird , kann man die neue SVD-Zerlegung basierend auf der alten (dh unter Verwendung von …



3
Wie wählt man eine optimale Anzahl latenter Faktoren bei der nicht-negativen Matrixfaktorisierung?
Bei gegebener Matrix findet die nicht negative Matrixfaktorisierung (NMF) zwei nicht negative Matrizen und ( dh mit allen Elementen ) zur Darstellung der zerlegten Matrix als:Vm×nVm×n\mathbf V^{m \times n}Wm×kWm×k\mathbf W^{m \times k}Hk×nHk×n\mathbf H^{k \times n}≥0≥0\ge 0 V≈WH,V≈WH,\mathbf V \approx \mathbf W\mathbf H, Zum Beispiel, indem Sie verlangen, dass nicht negative …

1
Erklären Sie, wie "eigen" beim Invertieren einer Matrix hilft
Meine Frage bezieht sich auf eine in geoR:::.negloglik.GRFoder ausgenutzte Berechnungstechnik geoR:::solve.geoR. In einem linearen gemischten Modellaufbau gilt: Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e wobei ββ\beta und bbb die festen bzw. zufälligen Effekte sind. Auch ist Σ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Bei der Abschätzung der Effekte muss berechnet werden, was normalerweise mit etwas wie , aber manchmal ist fast …


1
R / mgcv: Warum produzieren te () und ti () Tensorprodukte unterschiedliche Oberflächen?
Das mgcvPaket für Rhat zwei Funktionen zum Anpassen von Tensorproduktwechselwirkungen: te()und ti(). Ich verstehe die grundlegende Arbeitsteilung zwischen den beiden (Anpassen einer nichtlinearen Wechselwirkung vs. Zerlegen dieser Wechselwirkung in Haupteffekte und eine Wechselwirkung). Was ich nicht verstehe, ist warum te(x1, x2)und ti(x1) + ti(x2) + ti(x1, x2)kann (leicht) unterschiedliche Ergebnisse …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
Warum ist Nicht-Negativität für kollaborative Filter- / Empfehlungssysteme wichtig?
In allen modernen Empfehlungssystemen, die ich gesehen habe und die auf einer Matrixfaktorisierung beruhen, wird eine nicht negative Matrixfaktorisierung für die Benutzerfilmmatrix durchgeführt. Ich kann verstehen, warum Nicht-Negativität für die Interpretierbarkeit wichtig ist und / oder wenn Sie spärliche Faktoren wünschen. Aber wenn Sie sich nur für die Prognoseleistung interessieren, …

1
Schnelle Berechnung / Schätzung eines linearen Systems mit niedrigem Rang
Lineare Gleichungssysteme sind in der Computerstatistik allgegenwärtig. Ein spezielles System, auf das ich gestoßen bin (z. B. in der Faktoranalyse), ist das System Ax=bAx=bAx=b wobei Hier ist eine Diagonalmatrix mit einer streng positiven Diagonale, ist eine (mit ) symmetrische positive semidefinitive Matrix und ist eine beliebige Matrix. Wir werden gebeten, …

2
Kollaboratives Filtern durch Matrixfaktorisierung mit logistischer Verlustfunktion
Betrachten Sie das Problem der kollaborativen Filterung. Wir haben Matrix der Größe #users * #items. wenn Benutzer i Element j mag, wenn Benutzer i Element j nicht mag, undwenn es keine Daten über (i, j) Paar gibt. Wir wollen für zukünftige Benutzer-Artikel-Paare vorhersagen .MMMMi,j=1Mi,j=1M_{i,j} = 1Mi,j=0Mi,j=0M_{i,j} = 0Mi,j=?Mi,j=?M_{i,j}=?Mi,jMi,jM_{i,j} Der Standardansatz …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.