Wie findet man den Mittelwert einer Summe abhängiger Variablen?


13

Ich weiß, dass der Mittelwert der Summe unabhängiger Variablen die Summe der Mittelwerte jeder unabhängigen Variablen ist. Gilt das auch für abhängige Variablen?


@feetwet, nur das Entfernen von "Danke" ist nicht wirklich wichtig genug, um einen Thread von vor 18 Monaten anzustoßen. FWIW, ich habe dafür gestimmt, diese Änderung abzulehnen (aber 2 andere haben zugestimmt, so dass Sie meinen Kommentar sonst nicht gesehen hätten).
gung - Wiedereinsetzung von Monica

1
@gung - Alle möglichen Dinge können mit der Frage "Aktiv" -Ansicht in Konflikt geraten. Ihre Beobachtung wurde oft gemacht, und AFAIKs Richtlinie für Stapelaustausch lautet, dass trotz dieses Nachteils gültige geringfügige Änderungen eine gute Sache sind .
Feetwet

1
@feetwet, ich bin mir nicht sicher, wie relevant ein meta.Photography-Beitrag hier ist. Jede SE-Site hat ihre eigenen Metas und ihre eigenen Richtlinien, die von der Community festgelegt werden. Sie könnten an den relevanten meta.CV Fäden aussehen wollen, zum Beispiel diese: „schlug Änderungen“ , um Beiträge Handhabung . Sie werden vielleicht bemerken, wie Whubers Antwort Jeff Atwood zitiert: "Kleine Änderungen, wie ... nur die Anrede aus einem Beitrag zu entfernen. ... sie mit extremen Vorurteilen abzulehnen", und Joran macht den Punkt: "Meine Schwelle für wann eine Bearbeitung ist zu geringfügig und hängt umgekehrt mit dem Alter der Frage zusammen ".
gung - Wiedereinsetzung von Monica

1
@gung the Photography post Ich verwies auf Links zu wichtigen und neueren Fragen und Antworten zu Meta Stack Exchange zu diesem Thema . Aber wenn Whubers 4-jährige Antwort immer noch kanonisch für Cross Validated ist, respektiere ich das in Zukunft.
Feetwet

Antworten:


18

Erwartung (Mittelwertbildung) ist ein linearer Operator .

Dies bedeutet unter anderem, dass E(X+Y.)=E(X)+E(Y.) für zwei beliebige Zufallsvariablen X und Y. (für die die Erwartungen bestehen), unabhängig davon, ob sie unabhängig sind oder nicht.

Wir können (zB durch verallgemeinern Induktion ) , so daß E(ich=1nXich)=ich=1nE(Xich) , solange jede Erwartung E(Xich) existiert.

Also ja, der Mittelwert der Summe ist der gleiche wie der Mittelwert, auch wenn die Variablen abhängig sind. Beachten Sie jedoch, dass dies nicht für die Varianz gilt! Während also Veinr(X+Y.)=Veinr(X)+Veinr(Y.) für die unabhängigen Variablen, oder auch Variablen, die abhängig , aber nicht korreliert , die allgemeine Formel Veinr(X+Y.)=Veinr(X)+Veinr(Y.)+2CÖv(X,Y.) , wobeiCÖv ist dieKovarianzder Variablen.


10

TL; DR:
Unter der Annahme, dass es existiert, ist der Mittelwert ein Erwartungswert und der Erwartungswert ein Integral, und die Integrale haben die Linearitätseigenschaft in Bezug auf Summen.

TS; DR:
Da es sich um die Summe der Zufallsvariablen , dh um eine Funktion vieler von ihnen, ist der Mittelwert der Summe E ( Y n ) in Bezug auf ihre gemeinsame Verteilung ( nehmen wir an , dass alle Mittel vorhanden sind und finite) Bezeichnen x die multivariate Vektor der N RV, ihre gemeinsame Dichte kann geschrieben werden als f x ( x ) = f x 1 , . . . , XYn=i=1nXiE(Yn)Xn und deren Gelenkstütze D = S X 1 × . . . × S X n Nach demGesetz des unbewussten Statistikers haben wir dasmultipleIntegralfX(x)=fX1,...,Xn(x1,...,xn)D=SX1×...×SXn

.

E[Yn]=DYnfX(x)dx

Unter bestimmten Regularitätsbedingungen können wir das multiple Integral in ein iteratives Integral zerlegen:n

E[Yn]=SXn...SX1[i=1nXi]fX1,...,Xn(x1,...,xn)dx1...dxn

und unter Verwendung der Linearität von Integralen, in die wir zerlegen können

=SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn+......+SXn...SX1xnfX1,...,Xn(x1,...,xn)dx1...dxn

For each n-iterative integral we can re-arrange the order of integration so that, in each, the outer integration is with respect to the variable that is outside the joint density. Namely,

SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn=SX1x1SXn...SX2fX1,...,Xn(x1,...,xn)dx2...dxndx1

and in general

SXn...SXj...SX1xjfX1,...,Xn(x1,...,xn)dx1...dxj...dxn=
=SXjxjSXn...SXj1SXj+1...SX1fX1,...,Xn(x1,...,xn)dx1...dxj1dxj+1......dxndxj

As we calculate one-by-one the integral in each n-iterative integral (starting from the inside), we "integrate out" a variable and we obtain in each step the "joint-marginal" distribution of the other variables. Each n-iterative integral therefore will end up as SXjxjfXj(xj)dxj.

Bringing it all together we arrive at

E[Yn]=E[i=1nXi]=SX1x1fX1(x1)dx1+...+SXnxnfXn(xn)dxn

But now each simple integral is the expected value of each random variable separately, so

E[i=1nXi]=E(X1)+...+E(Xn)
=i=1nE(Xi)

Note that we never invoked independence or non-independence of the random variables involved, but we worked solely with their joint distribution.


@ssdecontrol This is one upvote I do appreciate, indeed.
Alecos Papadopoulos

1
The expansion into iterated integrals and back again is unnecessary. It complicates a simple argument. You could replace the "TS;DR" section with its last sentence and have a fine answer.
whuber

@whuber One and a half years later, it still escapes me (I mean, without using the "linearity of the expectation operator" fact, that has already been used by the other answer). Any hint so I can rework the answer towards this simple argument?
Alecos Papadopoulos

Ich halte das Argument für überflüssig. Der Schlüssel zu dem Ganzen ist Ihre Beobachtung im letzten Satz.
whuber
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.