Als «conditional-expectation» getaggte Fragen

Eine bedingte Erwartung ist die Erwartung einer Zufallsvariablen, die Informationen zu einer anderen Variablen oder zu Variablen erhält (meistens durch Angabe ihres Werts).


3
Was ist falsch an meinem Beweis des Gesetzes der totalen Varianz?
Nach dem Gesetz der Gesamtvarianz ist Var(X)=E(Var(X∣Y))+Var(E(X∣Y))Var⁡(X)=E⁡(Var⁡(X∣Y))+Var⁡(E⁡(X∣Y))\operatorname{Var}(X)=\operatorname{E}(\operatorname{Var}(X\mid Y)) + \operatorname{Var}(\operatorname{E}(X\mid Y)) Wenn ich es beweisen will, schreibe ich Var(X)=E(X−EX)2=E{E[(X−EX)2∣Y]}=E(Var(X∣Y))Var⁡(X)=E⁡(X−E⁡X)2=E⁡{E⁡[(X−E⁡X)2∣Y]}=E⁡(Var⁡(X∣Y)) \begin{equation} \begin{aligned} \operatorname{Var}(X) &= \operatorname{E}(X - \operatorname{E}X)^2 \\ &= \operatorname{E}\left\{\operatorname{E}\left[(X - \operatorname{E}X)^2\mid Y\right]\right\} \\ &= \operatorname{E}(\operatorname{Var}(X\mid Y)) \end{aligned} \end{equation} Was stimmt damit nicht?


2
Bedingte Erwartung einer einheitlichen Zufallsvariablen bei Auftragsstatistik
Es sei angenommen , X = (X1,...,Xn)(X1,...,Xn)(X_1, ..., X_n) ~ U(θ,2θ)U(θ,2θ)U(\theta, 2\theta) , wobei θ∈R+θ∈R+\theta \in \Bbb{R}^+ . Wie berechnet man die bedingte Erwartung von E[X1|X(1),X(n)]E[X1|X(1),X(n)]E[X_1|X_{(1)},X_{(n)}] , wobei X(1)X(1)X_{(1)} und X(n)X(n)X_{(n)} die kleinste bzw. größte Ordnungsstatistik sind? Mein erster Gedanke wäre, dass die Bestellstatistik den Bereich begrenzt und einfach (X(1)+X(n))/2(X(1)+X(n))/2(X_{(1)}+X_{(n)})/2 …

2
Frau A wählt zufällig eine Zahl aus der Gleichverteilung auf . Dann zeichnet Herr B wiederholt und unabhängig Zahlen
Frau A wählt zufällig eine Zahl aus der Gleichverteilung auf . Dann zieht Herr B wiederholt und unabhängig die Zahlen aus der Gleichverteilung auf , bis er eine Zahl größer als erhält , und stoppt dann. Die erwartete Summe der Zahl, die Herr B bei zieht, ist gleich?XXX[0,1][0,1][0, 1]Y1,Y2,...Y1,Y2,...Y_1, Y_2, …


1
Bedingte Erwartung einer verkürzten RV-Ableitung, Gumbelverteilung (logistischer Unterschied)
Ich habe zwei Zufallsvariablen, die unabhängig und identisch verteilt sind, dh :ϵ1,ϵ0∼iidGumbel(μ,β)ϵ1,ϵ0∼iidGumbel(μ,β)\epsilon_{1}, \epsilon_{0} \overset{\text{iid}}{\sim} \text{Gumbel}(\mu,\beta) F(ϵ)=exp(−exp(−ϵ−μβ)),F(ϵ)=exp⁡(−exp⁡(−ϵ−μβ)),F(\epsilon) = \exp(-\exp(-\frac{\epsilon-\mu}{\beta})), f(ϵ)=1βexp(−(ϵ−μβ+exp(−ϵ−μβ))).f(ϵ)=1βexp⁡(−(ϵ−μβ+exp⁡(−ϵ−μβ))).f(\epsilon) = \dfrac{1}{\beta}\exp(-\left(\frac{\epsilon-\mu}{\beta}+\exp(-\frac{\epsilon-\mu}{\beta})\right)). Ich versuche zwei Größen zu berechnen: Eϵ1Eϵ0|ϵ1[c+ϵ1|c+ϵ1&gt;ϵ0]Eϵ1Eϵ0|ϵ1[c+ϵ1|c+ϵ1&gt;ϵ0]\mathbb{E}_{\epsilon_{1}}\mathbb{E}_{\epsilon_{0}|\epsilon_{1}}\left[c+\epsilon_{1}|c+\epsilon_{1}>\epsilon_{0}\right] Eϵ1Eϵ0|ϵ1[ϵ0|c+ϵ1&lt;ϵ0]Eϵ1Eϵ0|ϵ1[ϵ0|c+ϵ1&lt;ϵ0]\mathbb{E}_{\epsilon_{1}}\mathbb{E}_{\epsilon_{0}|\epsilon_{1}}\left[\epsilon_{0}|c+\epsilon_{1}<\epsilon_{0}\right] Ich komme zu einem Punkt, an dem ich eine Integration für etwas in der Form durchführen muss: eexeexe^{e^{x}} , das in …


1
Ist
Ist ? Und was ist mit Ich bin durch die Beziehungen verwirrt. Es scheint intuitiv der Fall zu sein. Wenn es richtig ist, wie beweise ich es mathematisch? Ich habe auf dieser Seite und anderswo gesucht ...E [ E ( X | Y = y ) | Z = z …

1
Berechnung der bedingten Erwartung an
Ich habe nicht wirklich gesehen, dass Wahrscheinlichkeitsbücher die bedingte Erwartung berechnen, außer für σσ\sigma Algebren, die durch eine diskrete Zufallsvariable erzeugt werden. Sie geben einfach die Existenz der bedingten Erwartung zusammen mit ihren Eigenschaften an und belassen sie dabei. Ich finde das etwas ärgerlich und versuche, eine Methode zu finden, …

1
Gesetz der totalen Erwartung / Turmregel: Warum müssen beide Zufallsvariablen aus demselben Wahrscheinlichkeitsraum stammen?
Ich zitiere (Hervorhebung meiner) aus der Wikipedia-Definition : Der Satz in der Wahrscheinlichkeitstheorie, bekannt als das Gesetz der Gesamterwartung, ... besagt, dass wenn X eine integrierbare Zufallsvariable ist (dh eine Zufallsvariable, die E (| X |) &lt;∞ erfüllt) und Y eine beliebige Zufallsvariable ist, nicht notwendigerweise integrierbar, auf demselben Wahrscheinlichkeitsraum …


2
Bedingter Mittelwert bei linearer Regression
Ich habe eine Frage zur linearen Regression im Allgemeinen. Angenommen, wir haben den folgenden Datengenerierungsprozess:yi=xiβ+ϵiyi=xiβ+ϵiy_{i}=x_{i}\beta+\epsilon_{i} Nach meinem Verständnis ist jede Beobachtung eine Zufallsvariable, dh jedes hat einen bedingten Mittelwert , dh : unter Exogenitätsannahmen. Meine Frage lautet wie folgt. Was ist das bedingungslose Mittel von ? Was bedeutet wirklich, wenn …

1
Berechnung des erwarteten Wertes der abgeschnittenen Normalen
Unter Verwendung der Mühlen - Verhältnis Ergebnis lassen , dannX.∼ N.( μ ,σ2)X.∼N.(μ,σ2)X \sim N(\mu, \sigma^2) E.( X.| X.&lt; α ) = μ - σϕ (a - μσ)Φ (a - μσ)E.(X.|X.&lt;α)=μ- -σϕ(ein- -μσ)Φ(ein- -μσ)E(X| X<\alpha) = \mu - \sigma\frac{\phi(\frac{a- \mu}{\sigma})}{\Phi(\frac{a-\mu}{\sigma})} Bei der Berechnung in R. erhalte ich jedoch nicht die …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.