Funktionen unabhängiger Zufallsvariablen


25

Ist die Behauptung, dass Funktionen unabhängiger Zufallsvariablen selbst unabhängig sind, wahr?

Ich habe gesehen, dass dieses Ergebnis oft implizit in einigen Beweisen verwendet wird, zum Beispiel beim Nachweis der Unabhängigkeit zwischen dem Stichprobenmittelwert und der Stichprobenvarianz einer Normalverteilung, aber ich konnte keine Rechtfertigung dafür finden. Es scheint, dass einige Autoren dies als gegeben ansehen, aber ich bin nicht sicher, ob dies immer der Fall ist.

Antworten:


33

Die allgemeinste und abstrakteste Definition von Unabhängigkeit macht diese Behauptung trivial und liefert gleichzeitig eine wichtige qualifizierende Bedingung: Dass zwei Zufallsvariablen unabhängig sind, bedeutet, dass die von ihnen erzeugten Sigma-Algebren unabhängig sind. Da die durch eine messbare Funktion einer Sigma-Algebra erzeugte Sigma-Algebra eine Subalgebra ist, haben messbare Funktionen dieser Zufallsvariablen erst recht unabhängige Algebren, von denen diese Funktionen unabhängig sind.

(Wenn eine Funktion nicht messbar ist, erstellt sie normalerweise keine neue Zufallsvariable, sodass das Konzept der Unabhängigkeit nicht einmal Anwendung findet.)


Lassen Sie uns die Definitionen auspacken, um zu sehen, wie einfach dies ist. Es sei daran erinnert, dass eine Zufallsvariable X eine reelle Funktion ist, die im "Stichprobenraum" Ω (die Menge der über die Wahrscheinlichkeit untersuchten Ergebnisse).

  1. Eine Zufallsvariable X wird anhand der Wahrscheinlichkeiten untersucht, dass ihr Wert in verschiedenen Intervallen von reellen Zahlen liegt (oder allgemeiner, Mengen, die auf einfache Weise aus Intervallen konstruiert wurden: Dies sind die Borel-messbaren Mengen von reellen Zahlen).

  2. Zu jeder Borel-Messmenge gehört das Ereignis X ( I ), das aus allen Ergebnissen ω besteht, für die X ( ω ) in I liegt .I X(I)ωX(ω)ich

  3. Die von erzeugte Sigma-Algebra wird durch die Sammlung all dieser Ereignisse bestimmt.X

  4. Die naive Definition sagt zwei Zufallsvariablen und Y sind unabhängig „ wenn ihre Wahrscheinlichkeiten multiplizieren.“ Das heißt, wenn ich eine messbare Borel-Menge und J eine andere bin , dannXY.ichJ

    Pr(X(ω)ich und Y.(ω)J)=Pr(X(ω)ich)Pr(Y.(ω)J).

  5. Aber in der Sprache der Ereignisse (und Sigma-Algebren) ist das dasselbe wie

    Pr(ωX(I) and ωY(J))=Pr(ωX(I))Pr(ωY(J)).

Betrachten wir nun zwei Funktionen und nehmen wir an, dass f X und g Y Zufallsvariablen sind. (Der Kreis ist eine funktionale Zusammensetzung: ( f X ) ( ω ) = f ( X ( ω ) ) . Dies bedeutet, dass f eine "Funktion einer Zufallsvariablen" ist.) Hinweis - Dies ist nur ein Elementarwert Mengenlehre - dasf,G:RRfXgY(fX)(ω)=f(X(ω))f

(fX)(I)=X(f(I)).

Mit anderen Worten, jedes von (links) erzeugte Ereignis ist automatisch ein von X erzeugtes EreignisfXX (wie in der Form auf der rechten Seite dargestellt). Deshalb gilt (5) automatisch für und g Y : es gibt nichts zu prüfen!fXgY


NB Sie können "real-value" überall durch "mit Werten in " ersetzen, ohne dass Sie irgendetwas anderes in irgendeiner materiellen Weise ändern müssen. Dies deckt den Fall von vektorwertigen Zufallsvariablen ab.Rd


1
Sigma-Algebren sind fortgeschrittene Sachen.
Aksakal

3
@Aksakal Es hängt davon ab, auf welche Schule du gehst oder welche Bücher du liest. (Ich habe dieses Material bereits im zweiten Studienjahr erfolgreich unterrichtet. Es gibt auch wunderbar zugängliche Berichte über diese Theorie im Grundstudium, wie z. B. Steven Shreves Texte zum stochastischen Kalkül, die sich an Studenten mit einem reinen Kalkülhintergrund richten.) Aber wie ist das relevant? Jede Rechtfertigung - auch eine raffinierte - sollte einer ungerechtfertigten Behauptung vorgezogen werden.
Whuber

1
Sie sind sehr freundlich, sich an die Mühe zu machen, jemandem zu helfen, der eine Frage gestellt hat. Danke noch einmal. Und Sie haben Recht, die Definitionen sind doch nicht zu entmutigend.
JohnK

13

Betrachten Sie diesen "weniger fortgeschrittenen" Beweis:

Lassen , wobei X , Y unabhängige Zufallsvariablen und f , g sind messbare Funktionen. Dann gilt: P { f ( X ) x  und  g ( Y ) X:ΩXRn,Y:ΩYRm,f:RnRk,g:RmRpX,Yf,g Unter Verwendung der Unabhängigkeit von X und Y ist P ( { X { w R n : f ( w

P{f(X)x and g(Y)y}=P({f(X)x}{g(Y)y})=P({X{wRn:f(w)x}}{Y{wRm:g(w)y}}).
XY
P({X{wRn:f(w)x}}{Y{wRm:g(w)y}})==P{X{wRn:f(w)x}P{Y{wRm:g(w)y}}=P{f(X)x}P{g(Y)y}.

{f(X)x}{wΩX:f(X(w))x}={X{wRn:f(w)x}},
Xf(X)Y

2
+1. Vielen Dank für diesen Beitrag, der sich so klar auf die wesentliche Idee konzentriert. Willkommen auf unserer Webseite!
whuber

7

g(X)h(Y)ghXY


Danke, ich studiere gerade Hogg & Craig und MGB. Billingsley ist der nächste logische Schritt.
JohnK

3
Billinglsey ist eine Qual, es sei denn, Sie sind Mathematiker und haben bereits Maßnahmen erlernt. Partarathys Intro ist viel einfacher als das 2-in-1-Buch, Alan Karrs Probability- Text ist auch leicht zu lesen.
Aksakal

Ein weiterer einfacher Text als Billingsleys: Wahrscheinlichkeit.ca/jeff/grprobbook.html
Adrian

0

Beachten Sie, dass dieses Ergebnis nicht als Alternative, sondern als Ergänzung zu den bisherigen brillanten Antworten sehr intuitiv ist.

Normalerweise denken wir das XYXY

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.