INFORMELLE BEHANDLUNG
Wir sollten uns daran erinnern, dass die Notation, in der wir Zufallsvariablen bedingen, als Notation ungenau, wenn auch wirtschaftlich ist. In Wirklichkeit bedingen wir die Sigma-Algebra, die diese Zufallsvariablen erzeugen. Mit anderen Worten soll sich auf mittlere . Diese Bemerkung mag in einer "informellen Behandlung" unangebracht erscheinen, erinnert uns jedoch daran, dass unsere konditionierenden Entitäten Sammlungen von Mengen sind (und wenn wir von einem einzelnen Wert konditionieren, ist dies eine Singleton-Menge). Und was enthalten diese Sets? Sie enthalten die Informationen, mit denen die möglichen Werte der Zufallsvariablen Auskunft geben , was mit der Realisierung von geschehen kann .E[Y∣X]E[Y∣σ(X)]XY
Bringing in dem Konzept der Informationen, ermöglicht es uns , über (und Verwendung) zu denken , das Gesetz der Iterated Erwartungen auf eine sehr intuitive Art und Weise (manchmal auch als „Tower Property“ genannt):
Sigma-Algebra , die durch zwei Zufallsvariablen, ist zumindest als groß wie das, was durch eine Zufallsvariable erzeugt wird: in der richtigen satztheoretischen Bedeutung. Die Information über in ist also mindestens so groß wie die entsprechende Information in .
Setzen Sie nun als Anspielung auf die Schreibweise und . Dann kann die LHS der Gleichung, die wir betrachten, geschrieben werdenσ(X)⊆σ(X,Z)σ ( X , Z ) σ ( X ) σ ( X ) ≤ I x σ ( X , Z ) ≤ I x zYσ(X,Z)σ(X)
σ(X)≡Ixσ(X,Z)≡Ixz
Y I x z I x
E[ E( Y| ichx z) | ichX]
Wir haben den obigen Ausdruck verbal beschrieben: "Was ist die Erwartung von {dem erwarteten Wert von gegebener Information } gegeben , dass wir zur Verfügung stehenden Informationen haben
nur ?“
Y.ichx zichX
Können wir irgendwie "berücksichtigen" ? Nein - wir kennen nur . Aber wenn wir verwenden, was wir haben (wie wir durch den Ausdruck, den wir auflösen wollen, verpflichtet sind), dann sagen wir im Wesentlichen Dinge über unter dem Erwartungsoperator, dh wir sagen " ", nicht mehr - Wir haben gerade unsere Informationen erschöpft. I x Y E ( Y ∣ I x )ichx zichXY.E( Y∣ ichX)
Also
E[ E( Y| ichx z) | ichX] = E( Y| ichX)
Wenn es jemand anderes nicht tut, werde ich zur formellen Behandlung zurückkehren.
Eine (etwas mehr) FORMALE BEHANDLUNG
Lassen Sie uns sehen, wie zwei sehr wichtige Bücher der Wahrscheinlichkeitstheorie, P. Billingsleys Probability and Measure (3d ed.-1995) und D. Williams "Probability with Martingales" (1991), die Frage des Beweises des "Gesetzes der wiederholten Erwartungen" behandeln:
Billingsley widmet dem Beweis genau drei Zeilen. Williams und ich zitieren, sagt
"(die Turmeigenschaft) ergibt sich praktisch unmittelbar aus der Definition der bedingten Erwartung".
Das ist eine Textzeile. Billingsleys Beweis ist nicht weniger undurchsichtig.
Sie haben natürlich Recht: Diese wichtige und sehr intuitive Eigenschaft der bedingten Erwartung ergibt sich im Wesentlichen direkt (und fast sofort) aus ihrer Definition. Das einzige Problem besteht meines Erachtens darin, dass diese Definition normalerweise nicht gelehrt oder zumindest nicht hervorgehoben wird oder theoretische Kreise messen. Aber um in (fast) drei Zeilen zu zeigen, dass das Gesetz der wiederholten Erwartungen gilt, brauchen wir die Definition der bedingten Erwartung oder vielmehr ihrer definierenden Eigenschaft .
Läßt einen Wahrscheinlichkeitsraum , und einen integrierbare Zufallsvariable . Lassen sein , ein sub- -Algebra von , . Dann existiert eine Funktion , die -measurable ist, integrierbar ist und (dies ist die definierende Eigenschaft)Y G σ F G ≤ F W G( Ω , F, P )Y.GσFG⊆ FWG
E( W⋅ 1G) = E( Y⋅ 1G)∀ G ∈ G[ 1 ]
wo ist die Indikatorfunktion der Menge . Wir sagen , dass ist ( „eine Version von“) , um die bedingte Erwartung von gegeben , und wir schreiben
die kritische Detail zu beachten ist hier , dass die bedingte Erwartung , hat den gleichen Erwartungswert wie hat, nicht nur über die gesamte , sondern in jeder Teilmenge von . G W Y G W = E ( Y ∣ G )1GGWY.GY G G GW= E( Y∣ G)a . s .
Y.GGG
(Ich werde jetzt versuchen, darzustellen, wie sich die Tower-Eigenschaft aus der Definition der bedingten Erwartung ableitet.)
G σ H ⊆ G G ∈ H ⇒ G ∈ G W H U = E ( W ∣ H )W ist eine messbare Zufallsvariable. Betrachten wir dann einige sub- -Algebra, sagen . Dann . So, in analoger Weise wie vorher, haben wir die bedingte Erwartung gegeben , sagen dass durch das gekennzeichnet, GσH ⊆ GG ∈ H ⇒ G ∈ GWHU= E( W∣ H )a . s .
E(U⋅1G)=E(W⋅1G)∀G∈H[2]
Seit geben uns die Gleichungen und [ 1 ] [ 2 ]H⊆G[1][2]
E(U⋅1G)=E(Y⋅1G)∀G∈H[3]
Aber dies ist die definierende Eigenschaft der bedingten Erwartung der gegeben . HYHWir sind also berechtigt, zu schreiben
Da wir auch durch die Konstruktion , wir den Turm Eigenschaft nur bewiesen, oder allgemeine Form des Gesetzes der wiederholten Erwartungen - in acht Zeilen.U = E ( W ≤ H ) = E ( E [ Y ≤ G ] ≤ H )U=E(Y∣H)a.s.
U=E(W∣H)=E(E[Y∣G]∣H)