Ich weiß, dass der Mittelwert der Summe unabhängiger Variablen die Summe der Mittelwerte jeder unabhängigen Variablen ist. Gilt das auch für abhängige Variablen?
Ich weiß, dass der Mittelwert der Summe unabhängiger Variablen die Summe der Mittelwerte jeder unabhängigen Variablen ist. Gilt das auch für abhängige Variablen?
Antworten:
Erwartung (Mittelwertbildung) ist ein linearer Operator .
Dies bedeutet unter anderem, dass für zwei beliebige Zufallsvariablen und (für die die Erwartungen bestehen), unabhängig davon, ob sie unabhängig sind oder nicht.
Wir können (zB durch verallgemeinern Induktion ) , so daß , solange jede Erwartung existiert.
Also ja, der Mittelwert der Summe ist der gleiche wie der Mittelwert, auch wenn die Variablen abhängig sind. Beachten Sie jedoch, dass dies nicht für die Varianz gilt! Während also für die unabhängigen Variablen, oder auch Variablen, die abhängig , aber nicht korreliert , die allgemeine Formel , wobei ist dieKovarianzder Variablen.
TL; DR:
Unter der Annahme, dass es existiert, ist der Mittelwert ein Erwartungswert und der Erwartungswert ein Integral, und die Integrale haben die Linearitätseigenschaft in Bezug auf Summen.
TS; DR:
Da es sich um die Summe der Zufallsvariablen , dh um eine Funktion vieler von ihnen, ist der Mittelwert der Summe E ( Y n ) in Bezug auf ihre gemeinsame Verteilung ( nehmen wir an , dass alle Mittel vorhanden sind und finite) Bezeichnen x die multivariate Vektor der N RV, ihre gemeinsame Dichte kann geschrieben werden als f x ( x ) = f x 1 , . . . , X und deren Gelenkstütze
D = S X 1 × . . . × S X n
Nach demGesetz des unbewussten Statistikers haben wir dasmultipleIntegral
.
Unter bestimmten Regularitätsbedingungen können wir das multiple Integral in ein iteratives Integral zerlegen:
und unter Verwendung der Linearität von Integralen, in die wir zerlegen können
For each -iterative integral we can re-arrange the order of integration so that, in each, the outer integration is with respect to the variable that is outside the joint density. Namely,
and in general
As we calculate one-by-one the integral in each -iterative integral (starting from the inside), we "integrate out" a variable and we obtain in each step the "joint-marginal" distribution of the other variables. Each -iterative integral therefore will end up as .
Bringing it all together we arrive at
But now each simple integral is the expected value of each random variable separately, so
Note that we never invoked independence or non-independence of the random variables involved, but we worked solely with their joint distribution.