Entspricht die Varianz einer Summe der Summe der Varianzen?


62

Ist es (immer) wahr, dass

Var(i=1mXi)=i=1mVar(Xi)?

3
Die folgenden Antworten liefern den Beweis. Die Intuition kann im einfachen Fall var (x + y) gesehen werden: Wenn x und y positiv korreliert sind, tendieren beide dazu, zusammen groß / klein zu sein, was die Gesamtvariation erhöht. Wenn sie negativ korreliert sind, neigen sie dazu, sich gegenseitig aufzuheben, wodurch die Gesamtvariation abnimmt.
Assad Ebrahim

Antworten:


91

Die Antwort auf Ihre Frage lautet "Manchmal, aber nicht generell".

Um dies zu sehen, sei eine Zufallsvariable (mit endlichen Abweichungen). Dann,X1,...,Xn

var(i=1nXi)=E([i=1nXi]2)[E(i=1nXi)]2

Beachten Sie nun, dass , was klar ist, wenn Sie Überlegen Sie, was Sie tun, wenn Sie von Hand berechnen . Deshalb, ( a 1 + . . . + A n ) ( a 1 + . . . + A n )(i=1nai)2=i=1nj=1naiaj(a1+...+an)(a1+...+an)

E([i=1nXi]2)=E(i=1nj=1nXiXj)=i=1nj=1nE(XiXj)

ähnlich,

[E(i=1nXi)]2=[i=1nE(Xi)]2=i=1nj=1nE(Xi)E(Xj)

damit

var(i=1nXi)=i=1nj=1n(E(XiXj)E(Xi)E(Xj))=i=1nj=1ncov(Xi,Xj)

nach der Definition von Kovarianz.

Nun zu Ist die Varianz einer Summe gleich der Summe der Varianzen? :

  • Wenn die Variablen nicht sind, ja : das heißt, für , dann istcov(Xi,Xj)=0ij

    var(i=1nXi)=i=1nj=1ncov(Xi,Xj)=i=1ncov(Xi,Xi)=i=1nvar(Xi)
  • Wenn die Variablen korreliert sind, nein, nicht generell : Angenommen, sind zwei Zufallsvariablen mit der Varianz und wobei . Dann ist , sodass die Identität fehlschlägt.X1,X2σ2cov(X1,X2)=ρ0<ρ<σ2var(X1+X2)=2(σ2+ρ)2σ2

  • aber es ist für bestimmte Beispiele möglich : Angenommen, haben eine Kovarianzmatrix dannX1,X2,X3

    (10.40.60.410.20.60.21)
    var(X1+X2+X3)=3=var(X1)+var(X2)+var(X3)

Deshalb , wenn die Variablen unkorreliert sind dann die Varianz der Summe ist die Summe der Varianzen, sondern umgekehrt ist nicht allgemein wahr.


In Bezug auf die Beispiel-Kovarianzmatrix ist Folgendes richtig: Die Symmetrie zwischen dem oberen rechten und dem unteren linken Dreieck spiegelt die Tatsache wider, dass , aber die Symmetrie zwischen der oberen linken und der unteren rechten (in diesem Fall ist nur ein Teil des Beispiels, könnte aber durch zwei verschiedene ersetzt werden Zahlen, die sich zu summieren, zB und ? Dank.cov(Xi,Xj)=cov(Xj,Xi)cov(X1,X2)=cov(X2,X3)=0.30.6cov(X1,X2)=acov(X2,X,3)=0.6a
Abe

41

Var(i=1mXi)=i=1mVar(Xi)+2i<jCov(Xi,Xj).

Wenn also die Kovarianzen auf gemittelt werden , was eine Konsequenz wäre, wenn die Variablen paarweise nicht korreliert sind oder wenn sie unabhängig sind, dann ist die Varianz der Summe die Summe der Varianzen.0

Ein Beispiel, in dem dies nicht zutrifft: Es sei . Sei . Dann ist .Var(X1)=1X2=X1Var(X1+X2)=Var(2X1)=4


Bei Stichprobenabweichungen ist dies selten der Fall.
DW am

1
@DWin, "rare" ist eine Untertreibung - wenn die eine kontinuierliche Verteilung haben, ist die Wahrscheinlichkeit, dass die Stichprobenvarianz der Summe gleich der Summe der Stichprobenvarianzen in genau 0 ist :)X
Macro

15

Ich wollte nur eine prägnantere Version des von Macro bereitgestellten Proofs hinzufügen, damit Sie leichter sehen können, was los ist.

Beachten Sie, dass seitVar(X)=Cov(X,X)

Für zwei beliebige Zufallsvariablen gilt:X,Y

X,YE(XY)=E(X)E(Y)Var(X+Y)=Var(X)+Var(

Var(X+Y)=Cov(X+Y,X+Y)=E((X+Y)2)E(X+Y)E(X+Y)by expanding,=E(X2)(E(X))2+E(Y2)(E(Y))2+2(E(XY)E(X)E(Y))=Var(X)+Var(Y)+2(E(XY))E(X)E(Y))
Daher ist die Varianz der Summe zweier Zufallsvariablen im Allgemeinen nicht die Summe der Varianzen. Wenn jedoch unabhängig sind, dann ist , und wir haben .X,YE(XY)=E(X)E(Y)Var(X+Y)=Var(X)+Var(Y)

Beachten Sie, dass wir das Ergebnis für die Summe von Zufallsvariablen durch eine einfache Induktion erzeugen können .n


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.