Eine bedingte Erwartung ist die Erwartung einer Zufallsvariablen, die Informationen zu einer anderen Variablen oder zu Variablen erhält (meistens durch Angabe ihres Werts).
Welche genaue Bedeutung hat die tiefgestellte Notation bei bedingten Erwartungen im Rahmen der Maßtheorie? Diese Indizes erscheinen nicht in der Definition der bedingten Erwartung, aber wir können sie zum Beispiel auf dieser Seite von Wikipedia sehen . (Beachten Sie, dass dies nicht immer der Fall war, auf derselben Seite vor …
Ich bin kürzlich auf diese Identität gestoßen: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] Ich kenne natürlich die einfachere Version dieser Regel, nämlich dass aber ich konnte keine Rechtfertigung dafür finden seine Verallgemeinerung.E[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E \left(Y\right) Ich wäre dankbar, wenn jemand mich …
Sei ein Wahrscheinlichkeitsraum mit einer Zufallsvariablen und einer -algebra Wir können eine neue Zufallsvariable , die die bedingte Erwartung ist.(Ω,F,μ)(Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ:Ω→Rξ:Ω→R\xi:\Omega \to \mathbb{R}σσ\sigmaG⊆FG⊆F\mathscr{G}\subseteq \mathscr{F}E[ ξ| G]E[ξ|G]E[\xi|\mathscr{G}] Was genau ist die Intuition, über ? Ich verstehe die Intuition für Folgendes:E[ ξ| G]E[ξ|G]E[\xi|\mathscr{G}] (i) wobei ein Ereignis ist (mit positiver Wahrscheinlichkeit).E[ξ|A]E[ξ|A]E[\xi|A]AAA (ii) wobei …
Ich habe ein Problem mit dem Beweis von E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] die sehr wahrscheinlich ein tieferes Missverständnis der Erwartungen und bedingten Erwartungen aufdecken. Der mir bekannte Beweis lautet wie folgt (eine andere Version dieses Beweises finden Sie hier ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(X)E[(Y−g(x))2]=argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = …
Was ist im Allgemeinen der Unterschied zwischen und ?E( X| Y.)E(X|Y)E(X|Y)E( X| Y.= y)E(X|Y=y)E(X|Y=y) Ist früher die Funktion von und letztere die Funktion von ? Es ist so verwirrend ..yyyxxx
Ich fühle mich ein bisschen unwohl, wie ich mich mental mit Borels Paradox und anderen damit verbundenen "Paradoxen" befasst habe, die mit bedingten Wahrscheinlichkeiten zu tun haben. Für diejenigen, die dies lesen und nicht damit vertraut sind, siehe diesen Link . Meine mentale Reaktion bestand bisher hauptsächlich darin, es zu …
Lassen den Median bezeichnen und lassen das Mittel bezeichnet, eine Stichprobe der Größe aus einer Verteilung , das ist . Wie kann ich berechnen ?YYYX¯X¯\bar{X}n=2k+1n=2k+1n=2k+1N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2)E(Y|X¯=x¯)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) Aufgrund der Normalitätsannahme ist es intuitiv sinnvoll zu behaupten, dass und dies ist in der Tat die richtige Antwort. Kann das konsequent gezeigt werden?E(Y|X¯=x¯)=x¯E(Y|X¯=x¯)=x¯E(Y|\bar{X}=\bar{x})=\bar{x} Mein …
Angenommen, und haben einen endlichen zweiten Moment. Im Hilbertraum von Zufallsvariablen mit zweitem endlichen Moment (mit dem durch definierten inneren Produkt von , ) können wir interpretieren als die Projektion von auf den Raum der Funktionen von .XXXYYYT1,T2T1,T2T_1,T_2E(T1T2)E(T1T2)E(T_1T_2)||T||2=E(T2)||T||2=E(T2)||T||^2=E(T^2)E(Y|X)E(Y|X)E(Y|X)YYYXXX Wir wissen auch, dass das Gesetz der totalen Varianz lautet: Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X)) + …
Frage Wenn IID sind, dann berechne , wobei .X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right)T=∑iXiT = \sum_i X_i Versuch : Bitte überprüfen Sie, ob das unten stehende korrekt ist. Nehmen wir an, wir nehmen die Summe dieser bedingten Erwartungen so, dass Dies bedeutet, dass jedes da IID sind.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i …
Für eine Zufallsvariable ist X∼Exp(λ)X∼Exp(λ)X\sim \text{Exp}(\lambda) ( E[X]=1λE[X]=1λ\mathbb{E}[X] = \frac{1}{\lambda} ) Ich fühle intuitiv, dassE[X|X>x]E[X|X>x]\mathbb{E}[X|X > x]sollte gleichx+E[X]x+E[X]x + \mathbb{E}[X]da durch die memorylose Eigenschaft die Verteilung vonX|X>xX|X>xX|X > xist dasselbe wieXXXjedoch umnach rechts verschobenxxx. Ich bemühe mich jedoch, die memorylose Eigenschaft zu verwenden, um einen konkreten Beweis zu liefern. Jede …
Ich habe einige Probleme beim Lösen der folgenden Probleme. Sie ziehen Karten von einem Standardstapel mit 52 Karten ohne Ersatz, bis Sie ein Ass erhalten. Du ziehst aus dem, was noch übrig ist, bis du eine 2 bekommst. Du machst mit 3 weiter. Was ist die erwartete Anzahl, auf der …
Ich wollte den genauen Test des Fischers besser verstehen, deshalb habe ich das folgende Spielzeugbeispiel entwickelt, bei dem f und m männlich und weiblich und n und y dem "Sodakonsum" wie folgt entsprechen: > soda_gender f m n 0 5 y 5 0 Dies ist natürlich eine drastische Vereinfachung, aber …
Das mgcvPaket für Rhat zwei Funktionen zum Anpassen von Tensorproduktwechselwirkungen: te()und ti(). Ich verstehe die grundlegende Arbeitsteilung zwischen den beiden (Anpassen einer nichtlinearen Wechselwirkung vs. Zerlegen dieser Wechselwirkung in Haupteffekte und eine Wechselwirkung). Was ich nicht verstehe, ist warum te(x1, x2)und ti(x1) + ti(x2) + ti(x1, x2)kann (leicht) unterschiedliche Ergebnisse …
Betrachten Sie 3 iid-Proben, die aus der Gleichverteilung , wobei ein Parameter ist. Ich möchte wobei die Ordnungsstatistik .θ E [ X ( 2 ) | X ( 1 ) , X ( 3 ) ]u(θ,2θ)u(θ,2θ)u(\theta, 2\theta)θθ\thetaE[X(2)|X(1),X(3)]E[X(2)|X(1),X(3)] \mathbb{E}\left[X_{(2)}| X_{(1)}, X_{(3)}\right] X(i)X(i)X_{(i)}iii Ich würde erwarten, dass das Ergebnis Aber der einzige …
Ich habe zwei normalverteilte Variablen und mit mittlerer Null und Kovarianzmatrix . Ich bin daran interessiert, den Wert von anhand der Einträge von zu berechnen .X 2 Σ E [ X 2 1 X 2 2 ] ΣX1X1X_1X2X2X_2ΣΣ\SigmaE[X21X22]E[X12X22]E[X_1^2 X_2^2]ΣΣ\Sigma Ich habe das Gesetz der Gesamtwahrscheinlichkeit verwendet, um aber ich bin …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.