Als «covariance» getaggte Fragen

Die Kovarianz ist eine Größe, mit der die Stärke und Richtung der linearen Beziehung zwischen zwei Variablen gemessen wird. Die Kovarianz ist nicht skaliert und daher oft schwer zu interpretieren. Wenn es durch die SDs der Variablen skaliert wird, wird es zum Pearson-Korrelationskoeffizienten.





9
Wie und warum funktionieren Normalisierung und Feature-Skalierung?
Ich sehe, dass viele Algorithmen für maschinelles Lernen mit mittlerer Auslöschung und Kovarianzausgleich besser funktionieren. Beispielsweise konvergieren neuronale Netze tendenziell schneller, und K-Means bietet im Allgemeinen eine bessere Clusterbildung mit vorverarbeiteten Features. Ich sehe nicht, dass die Intuition hinter diesen Vorverarbeitungsschritten zu einer Leistungssteigerung führt. Kann mir das jemand erklären?

4
Kovarianz und Unabhängigkeit?
Ich habe aus meinem Lehrbuch gelesen, dass nicht garantiert, dass X und Y unabhängig sind. Aber wenn sie unabhängig sind, muss ihre Kovarianz 0 sein. Ich konnte mir noch kein richtiges Beispiel vorstellen; könnte jemand eine besorgen?cov(X,Y)=0cov(X,Y)=0\text{cov}(X,Y)=0


2
Was sagt die Inverse der Kovarianzmatrix über Daten aus? (Intuitiv)
Ich bin neugierig auf die Natur von . Kann jemand etwas intuitives über "Was sagt Σ - 1 über Daten?"Σ−1Σ−1\Sigma^{-1}Σ−1Σ−1\Sigma^{-1} Bearbeiten: Danke für die Antworten Nach einigen großartigen Kursen möchte ich einige Punkte hinzufügen: Es ist ein Maß für Information, dh ist eine Informationsmenge entlang der Richtung x .xTΣ−1xxTΣ−1xx^T\Sigma^{-1}xxxx Dualität: …

6
Warum sollte der Nenner des Kovarianzschätzers nicht n-2 statt n-1 sein?
Der Nenner des (unverzerrten) Varianzschätzers ist n−1n−1n-1 da nnn Beobachtungen vorliegen und nur ein Parameter geschätzt wird. V(X)=∑ni=1(Xi−X¯¯¯¯)2n−1V(X)=∑i=1n(Xi−X¯)2n−1 \mathbb{V}\left(X\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)^{2}}{n-1} Aus dem gleichen Grund frage ich mich, warum der Nenner der Kovarianz nicht n−2n−2n-2 wenn zwei Parameter geschätzt werden. Cov(X,Y)=∑ni=1(Xi−X¯¯¯¯)(Yi−Y¯¯¯¯)n−1Cov(X,Y)=∑i=1n(Xi−X¯)(Yi−Y¯)n−1 \mathbb{Cov}\left(X, Y\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)\left(Y_{i}-\overline{Y}\right)}{n-1}


3
Warum liefert die Inversion einer Kovarianzmatrix teilweise Korrelationen zwischen Zufallsvariablen?
Ich habe gehört, dass partielle Korrelationen zwischen Zufallsvariablen gefunden werden können, indem die Kovarianzmatrix invertiert und entsprechende Zellen aus dieser resultierenden Präzisionsmatrix entnommen werden (diese Tatsache wird in http://en.wikipedia.org/wiki/Partial_correlation erwähnt , aber ohne Beweis). . Warum ist das so?

4
Wie kann man die Eigenschaften der Kovarianzmatrix sicherstellen, wenn man ein multivariates normales Modell mit maximaler Wahrscheinlichkeit anpasst?
Angenommen, ich habe das folgende Modell yi=f(xi,θ)+εiyi=f(xi,θ)+εiy_i=f(x_i,\theta)+\varepsilon_i Dabei ist , ein Vektor erklärender Variablen, die Parameter der nichtlinearen Funktion und , wobei natürlich Matrix.x i θ f ≤ i ≤ N ( 0 , ≤ ) ≤ K × Kyi∈RKyi∈RKy_i\in \mathbb{R}^Kxixix_iθθ\thetafffεi∼N(0,Σ)εi∼N(0,Σ)\varepsilon_i\sim N(0,\Sigma)ΣΣ\SigmaK×KK×KK\times K Das Ziel ist die übliche Schätzung von …

3
Was sagt mir eine nicht positiv definierte Kovarianzmatrix über meine Daten?
Ich habe mehrere multivariate Beobachtungen und möchte die Wahrscheinlichkeitsdichte über alle Variablen bewerten. Es wird angenommen, dass die Daten normal verteilt sind. Bei einer geringen Anzahl von Variablen funktioniert alles so, wie ich es erwarten würde. Wenn Sie jedoch zu einer höheren Zahl wechseln, wird die Kovarianzmatrix nicht mehr positiv. …



Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.