Als «matrix-inverse» getaggte Fragen

Die Umkehrung einer gegebenen quadratischen Matrix ist die Matrix so dass die Identitätsmatrix ist. EINEIN- -1EINEIN- -1

3
Warum liefert die Inversion einer Kovarianzmatrix teilweise Korrelationen zwischen Zufallsvariablen?
Ich habe gehört, dass partielle Korrelationen zwischen Zufallsvariablen gefunden werden können, indem die Kovarianzmatrix invertiert und entsprechende Zellen aus dieser resultierenden Präzisionsmatrix entnommen werden (diese Tatsache wird in http://en.wikipedia.org/wiki/Partial_correlation erwähnt , aber ohne Beweis). . Warum ist das so?

1
Effiziente Berechnung der inversen Matrix in R
Ich muss die inverse Matrix berechnen und habe die solveFunktion verwendet. Während es bei kleinen Matrizen gut funktioniert solve, ist es bei großen Matrizen tendenziell sehr langsam. Ich habe mich gefragt, ob es eine andere Funktion oder Kombination von Funktionen gibt (über SVD, QR, LU oder andere Zerlegungsfunktionen), die mir …

1
Erklären Sie, wie "eigen" beim Invertieren einer Matrix hilft
Meine Frage bezieht sich auf eine in geoR:::.negloglik.GRFoder ausgenutzte Berechnungstechnik geoR:::solve.geoR. In einem linearen gemischten Modellaufbau gilt: Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e wobei ββ\beta und bbb die festen bzw. zufälligen Effekte sind. Auch ist Σ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Bei der Abschätzung der Effekte muss berechnet werden, was normalerweise mit etwas wie , aber manchmal ist fast …


1
Was tun, wenn die Probenkovarianzmatrix nicht invertierbar ist?
Ich arbeite an einigen Clustering-Techniken, bei denen ich für einen bestimmten Cluster von d-dimensionalen Vektoren eine multivariate Normalverteilung annehme und den d-dimensionalen Mittelwertvektor der Stichprobe und die Kovarianzmatrix der Stichprobe berechne. Wenn ich dann versuche zu entscheiden, ob ein neuer, unsichtbarer, d-dimensionaler Vektor zu diesem Cluster gehört, überprüfe ich seine …

1
R / mgcv: Warum produzieren te () und ti () Tensorprodukte unterschiedliche Oberflächen?
Das mgcvPaket für Rhat zwei Funktionen zum Anpassen von Tensorproduktwechselwirkungen: te()und ti(). Ich verstehe die grundlegende Arbeitsteilung zwischen den beiden (Anpassen einer nichtlinearen Wechselwirkung vs. Zerlegen dieser Wechselwirkung in Haupteffekte und eine Wechselwirkung). Was ich nicht verstehe, ist warum te(x1, x2)und ti(x1) + ti(x2) + ti(x1, x2)kann (leicht) unterschiedliche Ergebnisse …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


1
Schnelle Berechnung / Schätzung eines linearen Systems mit niedrigem Rang
Lineare Gleichungssysteme sind in der Computerstatistik allgegenwärtig. Ein spezielles System, auf das ich gestoßen bin (z. B. in der Faktoranalyse), ist das System Ax=bAx=bAx=b wobei Hier ist eine Diagonalmatrix mit einer streng positiven Diagonale, ist eine (mit ) symmetrische positive semidefinitive Matrix und ist eine beliebige Matrix. Wir werden gebeten, …

2
Klare Erklärung für die „numerische Stabilität der Matrixinversion“ bei der Gratregression und ihre Rolle bei der Reduzierung der Überanpassung
Ich verstehe, dass wir Regularisierung in einem Regressionsproblem der kleinsten Quadrate als anwenden können w∗=argminw[(y−Xw)T(y−Xw)+λ∥w∥2]w∗=argminw⁡[(y−Xw)T(y−Xw)+λ‖w‖2]\boldsymbol{w}^* = \operatorname*{argmin}_w \left[ (\mathbf y-\mathbf{Xw})^T(\boldsymbol{y}-\mathbf{Xw}) + \lambda\|\boldsymbol{w}\|^2 \right] und dass dieses Problem eine geschlossene Lösung hat als: w^=(XTX+λI)−1XTy.w^=(XTX+λI)−1XTy.\hat{\boldsymbol{w}} = (\boldsymbol{X}^T\boldsymbol{X}+\lambda\boldsymbol{I})^{-1}\boldsymbol{X}^T\boldsymbol{y}. Wir sehen, dass in der 2. Gleichung die Regularisierung einfach λλ\lambda zur Diagonale von \ …



2
Man beweise, dass
Ich habe diese Gleichheit wobei A und B quadratische symmetrische Matrizen sind.(A−1+B−1)−1=A(A+B)−1B(A−1+B−1)−1=A(A+B)−1B(A^{-1} + B^{-1})^{-1}=A(A+B)^{-1}BAAABBB Ich habe viele Tests von R und Matlab durchgeführt, die zeigen, dass dies zutrifft, aber ich weiß nicht, wie ich es beweisen soll.

3
Was bedeutet das statistisch, wenn
Es ist kein Fall aus der realen Welt, aber nehmen wir an, wir haben Beobachtungen und Variablen, da , wenn die Entwurfsmatrix ist, eine quadratische Matrix ist. Was bedeutet das statistisch? , wenn nicht existiert?nnnkkkk = n - 1k=n- -1k= n - 1 X.X.X(X.'X.)(X.'X.)(X'X)(X.'X.)- 1(X.'X.)- -1(X'X)^{-1}
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.