Als «linear-algebra» getaggte Fragen

Ein Gebiet der Mathematik, das sich mit der Untersuchung endlicher dimensionaler Vektorräume einschließlich Matrizen und ihrer Manipulation befasst, die für die Statistik wichtig sind.


1
Aktualisieren der SVD-Zerlegung nach dem Hinzufügen einer neuen Zeile zur Matrix
Angenommen, ich habe eine dichte Matrix der Größe und der SVD-ZerlegungIn ich die SVD berechnen sich wie folgt: .EINEIN \textbf{A}m × nm×nm \times nA = U S V⊤.EIN=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) Wenn eine neue -te Zeile zu hinzugefügt wird , kann man die neue SVD-Zerlegung basierend auf der alten (dh unter Verwendung von …

1
Warum ist der Rang der Kovarianzmatrix höchstens
Wie in dieser Frage festgestellt , ist der maximale Rang der Kovarianzmatrix wobei die Stichprobengröße ist. Wenn die Dimension der Kovarianzmatrix also der Stichprobengröße entspricht, wäre sie singulär. Ich kann nicht verstehen, warum wir vom maximalen Rang der Kovarianzmatrix subtrahieren .n 1 nn−1n−1n-1nnn111nnn

1
Was bedeuten die Pfeile in einem PCA-Biplot?
Betrachten Sie den folgenden PCA-Biplot: library(mvtnorm) set.seed(1) x <- rmvnorm(2000, rep(0, 6), diag(c(5, rep(1,5)))) x <- scale(x, center=T, scale=F) pc <- princomp(x) biplot(pc) Es sind ein paar rote Pfeile eingezeichnet. Was bedeuten sie? Ich wusste, dass der erste mit "Var1" beschriftete Pfeil in die unterschiedlichste Richtung des Datensatzes zeigen sollte …
14 r  pca  linear-algebra  biplot 


1
GBM-Paket vs. Caret mit GBM
Ich habe das Modell mit optimiert caret, aber dann das Modell mit dem gbmPaket erneut ausgeführt. Nach meinem Verständnis sollten das verwendete caretPaket gbmund die Ausgabe identisch sein. Nur ein kurzer Testlauf mit data(iris)zeigt jedoch eine Diskrepanz im Modell von etwa 5% unter Verwendung von RMSE und R ^ 2 …

2
Ist Erwartung gleich Mittelwert?
Ich mache ML an meiner Universität, und der Professor erwähnte den Begriff Erwartung (E), während er versuchte, uns einige Dinge über Gaußsche Prozesse zu erklären. Aber von der Art, wie er es erklärte, verstand ich, dass E dasselbe ist wie der Mittelwert μ. Habe ich richtig verstanden? Wenn es dasselbe …

2
Inkrementelle Gaußsche Prozessregression
Ich möchte eine inkrementelle Gaußsche Prozessregression mithilfe eines Schiebefensters über den Datenpunkten implementieren, das nacheinander über einen Stream ankommt. Lassen die Dimensionalität des Eingangsraums bezeichnen. Jeder Datenpunkt hat also Anzahl von Elementen.dddxixix_iddd Sei die Größe des Schiebefensters.nnn Um Vorhersagen zu treffen, muss ich die Inverse der Grammmatrix berechnen , wobei …

4
Ist „zufällige Projektion“ streng genommen keine Projektion?
Aktuelle Implementierungen des Zufallsprojektionsalgorithmus reduzieren die Dimensionalität von Datenproben, indem sie von R.dRd\mathbb R^d auf R.kRk\mathbb R^k Verwendung einer d× kd×kd\times k Projektionsmatrix R.RR abgebildet werden, deren Einträge aus einer geeigneten Verteilung stammen (zum Beispiel aus N.( 0 , 1 )N(0,1)\mathcal N(0,1) ): x′=1k√xRx′=1kxRx^\prime = \frac{1}{\sqrt k}xR Praktischerweise gibt es …



2
Geeignete Maßnahme, um die kleinste Kovarianzmatrix zu finden
In dem Lehrbuch, das ich lese, verwenden sie positive Bestimmtheit (halbpositive Bestimmtheit), um zwei Kovarianzmatrizen zu vergleichen. Die Idee ist, dass wenn pd ist, kleiner als . Aber ich kämpfe darum, die Intuition dieser Beziehung zu bekommen?A−BA−BA-BBBBAAA Hier gibt es einen ähnlichen Thread: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices Was ist die Intuition für die …

1
R lineare Regression kategoriale Variable "versteckter" Wert
Dies ist nur ein Beispiel, auf das ich mehrmals gestoßen bin, daher habe ich keine Beispieldaten. Ausführen eines linearen Regressionsmodells in R: a.lm = lm(Y ~ x1 + x2) x1ist eine stetige Variable. x2ist kategorisch und hat drei Werte, z. B. "Niedrig", "Mittel" und "Hoch". Die von R gegebene Ausgabe …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

2
Wie ändert sich die Kosinusähnlichkeit nach einer linearen Transformation?
Gibt es eine mathematische Beziehung zwischen: die Kosinusähnlichkeit sim( A , B )sim⁡(A,B)\operatorname{sim}(A, B) zweier Vektoren EINAA und B.BB und die Kosinusähnlichkeit sim( M.EIN , M.B )sim⁡(MA,MB)\operatorname{sim}(MA, MB) von EINAA und B.BB , ungleichmäßig skaliert über eine gegebene Matrix M.MM ? Hier ist M.MM eine gegebene Diagonalmatrix mit ungleichen Elementen …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.