Als «linear-algebra» getaggte Fragen

Ein Gebiet der Mathematik, das sich mit der Untersuchung endlicher dimensionaler Vektorräume einschließlich Matrizen und ihrer Manipulation befasst, die für die Statistik wichtig sind.

3
Was ist dieser Bias-Varianz-Kompromiss für Regressionskoeffizienten und wie kann er abgeleitet werden?
In diesem ( Bayesianische Inferenz für Varianzkomponenten, die nur Fehlerkontraste verwenden , Harville, 1974) behauptet der Autor als "bekannt" Beziehung ", für eine lineare Regression wobei y = X β(y−Xβ)′H−1(y−Xβ)=(y−Xβ^)′H−1(y−Xβ^)+(β−β^)′(X′H−1X)(β−β^)(y−Xβ)′H−1(y−Xβ)=(y−Xβ^)′H−1(y−Xβ^)+(β−β^)′(X′H−1X)(β−β^)(y-X\beta)'H^{-1}(y-X\beta)=(y-X\hat\beta)'H^{-1}(y-X\hat\beta)+(\beta-\hat\beta)'(X'H^{-1}X)(\beta-\hat\beta)ϵ ∼ N ( 0 , H ) .y=Xβ+ϵ,y=Xβ+ϵ,y=X\beta+\epsilon,ϵ∼N(0,H).ϵ∼N(0,H).\epsilon\sim\mathcal{N}(0, H). Wie ist das bekannt? Was ist der einfachste Weg, dies zu …

1
Warum sind die Bewertungen der Hauptkomponenten nicht korreliert?
Angenommen, ist eine Matrix von mittelzentrierten Daten. Die Matrix ist , hat verschiedene Eigenwerte und Eigenvektoren , ... , die orthogonal sind.AA\mathbf AS=cov(A)S=cov(A)\mathbf S=\text{cov}(\mathbf A)m×mm×mm\times mmmms1s1\mathbf s_1s2s2\mathbf s_2smsm\mathbf s_m Die te Hauptkomponente (manche Leute nennen sie "Scores") ist der Vektor . Mit anderen Worten, es ist eine lineare Kombination der …

1
Wie kann man beobachtete mit erwarteten Ereignissen vergleichen?
Angenommen, ich habe eine Stichprobe von Häufigkeiten von 4 möglichen Ereignissen: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 und ich habe die erwarteten Wahrscheinlichkeiten, dass meine Ereignisse eintreten: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Mit der Summe der beobachteten …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

2
Wie kann man zeigen, dass diese Matrix positiv semidefinit ist?
Lassen K.= ( K.11K.21K.12K.22)K.=(K.11K.12K.21K.22)K=\begin{pmatrix} K_{11} & K_{12}\\ K_{21} & K_{22} \end{pmatrix} werden , um eine symmetrische positive semidefinite reelle Matrix (PSD) mit . Dann für , | r | ≤ 1K.12= K.T.21K.12=K.21T.K_{12}=K_{21}^T| r | ≤1|r|≤1|r| \le 1 K.∗= ( K.11r K.21r K.12K.22)K.∗=(K.11rK.12rK.21K.22)K^*=\begin{pmatrix} K_{11} & rK_{12}\\ rK_{21} & K_{22} \end{pmatrix} ist …

1
Gradienten- und Vektorableitungen: Zeilen- oder Spaltenvektor?
Viele Referenzen (einschließlich Wikipedia und http://www.atmos.washington.edu/~dennis/MatrixCalculus.pdf und http://michael.orlitzky.com/articles/the_derivative_of_a_quadratic_form.php ) definieren das Derivat von a Funktion durch einen Vektor als partielle Ableitungen der in einer Reihe angeordneten Funktion (eine Ableitung einer skalarwertigen Funktion ist also ein Zeilenvektor). In dieser Konvention sind der Gradient und die Vektorableitung Transponierungen voneinander. Der Vorteil dieser …



1
Gemischte Modelle: Wie lassen sich Hendersons Gleichungen mit gemischten Modellen ableiten?
Im Kontext der besten linearen unverzerrten Prädiktoren (BLUP) spezifizierte Henderson die Gleichungen mit gemischten Modellen (siehe Henderson (1950): Estimation of Genetic Parameters. Annals of Mathematical Statistics, 21, 309-310). Nehmen wir das folgende Modell mit gemischten Effekten an: y=Xβ+Zu+ey=Xβ+Zu+ey = X\beta+Zu+e wobei ein Vektor von n beobachtbaren Zufallsvariablen ist, ein Vektor …


1
Warum ist
Bei der Spline-Regression ist es nicht ungewöhnlich, dass die Basiserweiterung eine rangdefiziente Entwurfsmatrix erstellt Bn×pBn×pB_{n\times p}Es ist jedoch bekannt, dass die Bestrafung des Schätzverfahrens das Problem löst. Ich weiß nicht, wie ich zeigen soll, dass Bestrafung das bedeutetBTB+λΩBTB+λΩB^TB+\lambda\Omegaist definitiv positiv. (Ich weiß, dass PD-Matrizen invertierbar sind.) Um die Bühne zu …

2
Man beweise, dass
Ich habe diese Gleichheit wobei A und B quadratische symmetrische Matrizen sind.(A−1+B−1)−1=A(A+B)−1B(A−1+B−1)−1=A(A+B)−1B(A^{-1} + B^{-1})^{-1}=A(A+B)^{-1}BAAABBB Ich habe viele Tests von R und Matlab durchgeführt, die zeigen, dass dies zutrifft, aber ich weiß nicht, wie ich es beweisen soll.

1
Beziehung zwischen Eigenvektoren von und im Kontext von PCA
In Christopher Bishops Buch Pattern Recognition and Machine Learning enthält der Abschnitt über PCA Folgendes: Bei einer zentrierten Datenmatrix mit der Kovarianzmatrix lautet die Eigenvektorgleichung:XX\mathbf{X}N−1XTXN−1XTXN^{-1}\mathbf{X}^T\mathbf{X} N−1XTXui=λiui.N−1XTXui=λiui.N^{-1}\mathbf{X}^T\mathbf{X} \mathbf{u}_i = \lambda_i \mathbf{u}_i. Bishop definiert und behauptet, wenn und eine Einheitslänge haben, dann:vi=Xuivi=Xui\mathbf{v}_i = \mathbf{X} \mathbf{u}_iuiui\mathbf{u}_ivivi\mathbf{v}_i ui=1(Nλi)12XTvi.ui=1(Nλi)12XTvi.\mathbf{u}_i = \frac{1}{(N\lambda_i)^{\frac{1}{2}}}\mathbf{X}^T\mathbf{v}_i. Woher kommt die Quadratwurzel? …

1
Kann ich eine Cholesky-Zerlegung aus der Umkehrung einer Matrix erhalten?
Ich habe die Umkehrung einer riesigen Kovarianzmatrix, aus der ich zufällige Instanzen ziehen möchte. Ich weiß, wie das geht, indem ich eine Cholesky-Zerlegung in der Kovarianzmatrix durchführe und damit einen Vektor unabhängiger Gaußscher transformiere. Der einfache Prozess besteht also darin, die Riesenmatrix zu invertieren und dann die Cholesky-Zerlegung durchzuführen. Da …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.