Ein Gebiet der Mathematik, das sich mit der Untersuchung endlicher dimensionaler Vektorräume einschließlich Matrizen und ihrer Manipulation befasst, die für die Statistik wichtig sind.
In diesem ( Bayesianische Inferenz für Varianzkomponenten, die nur Fehlerkontraste verwenden , Harville, 1974) behauptet der Autor als "bekannt" Beziehung ", für eine lineare Regression wobei y = X β(y−Xβ)′H−1(y−Xβ)=(y−Xβ^)′H−1(y−Xβ^)+(β−β^)′(X′H−1X)(β−β^)(y−Xβ)′H−1(y−Xβ)=(y−Xβ^)′H−1(y−Xβ^)+(β−β^)′(X′H−1X)(β−β^)(y-X\beta)'H^{-1}(y-X\beta)=(y-X\hat\beta)'H^{-1}(y-X\hat\beta)+(\beta-\hat\beta)'(X'H^{-1}X)(\beta-\hat\beta)ϵ ∼ N ( 0 , H ) .y=Xβ+ϵ,y=Xβ+ϵ,y=X\beta+\epsilon,ϵ∼N(0,H).ϵ∼N(0,H).\epsilon\sim\mathcal{N}(0, H). Wie ist das bekannt? Was ist der einfachste Weg, dies zu …
Angenommen, ist eine Matrix von mittelzentrierten Daten. Die Matrix ist , hat verschiedene Eigenwerte und Eigenvektoren , ... , die orthogonal sind.AA\mathbf AS=cov(A)S=cov(A)\mathbf S=\text{cov}(\mathbf A)m×mm×mm\times mmmms1s1\mathbf s_1s2s2\mathbf s_2smsm\mathbf s_m Die te Hauptkomponente (manche Leute nennen sie "Scores") ist der Vektor . Mit anderen Worten, es ist eine lineare Kombination der …
Angenommen, ich habe eine Stichprobe von Häufigkeiten von 4 möglichen Ereignissen: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 und ich habe die erwarteten Wahrscheinlichkeiten, dass meine Ereignisse eintreten: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Mit der Summe der beobachteten …
Viele Referenzen (einschließlich Wikipedia und http://www.atmos.washington.edu/~dennis/MatrixCalculus.pdf und http://michael.orlitzky.com/articles/the_derivative_of_a_quadratic_form.php ) definieren das Derivat von a Funktion durch einen Vektor als partielle Ableitungen der in einer Reihe angeordneten Funktion (eine Ableitung einer skalarwertigen Funktion ist also ein Zeilenvektor). In dieser Konvention sind der Gradient und die Vektorableitung Transponierungen voneinander. Der Vorteil dieser …
Ich bin neu in der Konvertierung von Formeln in Matrixform. Dies ist jedoch für einen effizienten Code für maschinelles Lernen erforderlich. Also möchte ich den "richtigen" Weg verstehen, nicht das Cowboy-Zeug, das ich mache. Okay, jetzt geht es los. Ich versuche, die gewichtete Quadratsumme aus der folgenden Form in eine …
Im Kontext der besten linearen unverzerrten Prädiktoren (BLUP) spezifizierte Henderson die Gleichungen mit gemischten Modellen (siehe Henderson (1950): Estimation of Genetic Parameters. Annals of Mathematical Statistics, 21, 309-310). Nehmen wir das folgende Modell mit gemischten Effekten an: y=Xβ+Zu+ey=Xβ+Zu+ey = X\beta+Zu+e wobei ein Vektor von n beobachtbaren Zufallsvariablen ist, ein Vektor …
Ich weiß, dass dies das Lösungssystem des linearen Gleichungsproblems ist. Aber meine Frage ist, warum es ein Problem ist, dass die Anzahl der Beobachtungen geringer ist als die Anzahl der Prädiktoren. Wie kann das passieren? Kommt die Datenerfassung nicht aus dem heiklen Umfragedesign oder dem experimentellen Design, sofern sie zumindest …
Bei der Spline-Regression ist es nicht ungewöhnlich, dass die Basiserweiterung eine rangdefiziente Entwurfsmatrix erstellt Bn×pBn×pB_{n\times p}Es ist jedoch bekannt, dass die Bestrafung des Schätzverfahrens das Problem löst. Ich weiß nicht, wie ich zeigen soll, dass Bestrafung das bedeutetBTB+λΩBTB+λΩB^TB+\lambda\Omegaist definitiv positiv. (Ich weiß, dass PD-Matrizen invertierbar sind.) Um die Bühne zu …
Ich habe diese Gleichheit wobei A und B quadratische symmetrische Matrizen sind.(A−1+B−1)−1=A(A+B)−1B(A−1+B−1)−1=A(A+B)−1B(A^{-1} + B^{-1})^{-1}=A(A+B)^{-1}BAAABBB Ich habe viele Tests von R und Matlab durchgeführt, die zeigen, dass dies zutrifft, aber ich weiß nicht, wie ich es beweisen soll.
In Christopher Bishops Buch Pattern Recognition and Machine Learning enthält der Abschnitt über PCA Folgendes: Bei einer zentrierten Datenmatrix mit der Kovarianzmatrix lautet die Eigenvektorgleichung:XX\mathbf{X}N−1XTXN−1XTXN^{-1}\mathbf{X}^T\mathbf{X} N−1XTXui=λiui.N−1XTXui=λiui.N^{-1}\mathbf{X}^T\mathbf{X} \mathbf{u}_i = \lambda_i \mathbf{u}_i. Bishop definiert und behauptet, wenn und eine Einheitslänge haben, dann:vi=Xuivi=Xui\mathbf{v}_i = \mathbf{X} \mathbf{u}_iuiui\mathbf{u}_ivivi\mathbf{v}_i ui=1(Nλi)12XTvi.ui=1(Nλi)12XTvi.\mathbf{u}_i = \frac{1}{(N\lambda_i)^{\frac{1}{2}}}\mathbf{X}^T\mathbf{v}_i. Woher kommt die Quadratwurzel? …
Ich habe die Umkehrung einer riesigen Kovarianzmatrix, aus der ich zufällige Instanzen ziehen möchte. Ich weiß, wie das geht, indem ich eine Cholesky-Zerlegung in der Kovarianzmatrix durchführe und damit einen Vektor unabhängiger Gaußscher transformiere. Der einfache Prozess besteht also darin, die Riesenmatrix zu invertieren und dann die Cholesky-Zerlegung durchzuführen. Da …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.