Als «conditional-expectation» getaggte Fragen

Eine bedingte Erwartung ist die Erwartung einer Zufallsvariablen, die Informationen zu einer anderen Variablen oder zu Variablen erhält (meistens durch Angabe ihres Werts).

1
Indexnotation in Erwartungen
Welche genaue Bedeutung hat die tiefgestellte Notation bei bedingten Erwartungen im Rahmen der Maßtheorie? Diese Indizes erscheinen nicht in der Definition der bedingten Erwartung, aber wir können sie zum Beispiel auf dieser Seite von Wikipedia sehen . (Beachten Sie, dass dies nicht immer der Fall war, auf derselben Seite vor …

3
Eine Verallgemeinerung des Gesetzes der wiederholten Erwartungen
Ich bin kürzlich auf diese Identität gestoßen: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] Ich kenne natürlich die einfachere Version dieser Regel, nämlich dass aber ich konnte keine Rechtfertigung dafür finden seine Verallgemeinerung.E[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E \left(Y\right) Ich wäre dankbar, wenn jemand mich …

3
Intuition für die bedingte Erwartung von
Sei ein Wahrscheinlichkeitsraum mit einer Zufallsvariablen und einer -algebra Wir können eine neue Zufallsvariable , die die bedingte Erwartung ist.(Ω,F,μ)(Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ:Ω→Rξ:Ω→R\xi:\Omega \to \mathbb{R}σσ\sigmaG⊆FG⊆F\mathscr{G}\subseteq \mathscr{F}E[ ξ| G]E[ξ|G]E[\xi|\mathscr{G}] Was genau ist die Intuition, über ? Ich verstehe die Intuition für Folgendes:E[ ξ| G]E[ξ|G]E[\xi|\mathscr{G}] (i) wobei ein Ereignis ist (mit positiver Wahrscheinlichkeit).E[ξ|A]E[ξ|A]E[\xi|A]AAA (ii) wobei …

4
Problem mit dem Nachweis der bedingten Erwartung als bester Prädiktor
Ich habe ein Problem mit dem Beweis von E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] die sehr wahrscheinlich ein tieferes Missverständnis der Erwartungen und bedingten Erwartungen aufdecken. Der mir bekannte Beweis lautet wie folgt (eine andere Version dieses Beweises finden Sie hier ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = …



4
Erwarteter Wert des Stichprobenmedians bei gegebenem Stichprobenmittelwert
Lassen den Median bezeichnen und lassen das Mittel bezeichnet, eine Stichprobe der Größe aus einer Verteilung , das ist . Wie kann ich berechnen ?YYYX¯X¯\bar{X}n=2k+1n=2k+1n=2k+1N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2)E(Y|X¯=x¯)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) Aufgrund der Normalitätsannahme ist es intuitiv sinnvoll zu behaupten, dass und dies ist in der Tat die richtige Antwort. Kann das konsequent gezeigt werden?E(Y|X¯=x¯)=x¯E(Y|X¯=x¯)=x¯E(Y|\bar{X}=\bar{x})=\bar{x} Mein …

2
Gesetz der totalen Varianz als Satz des Pythagoras
Angenommen, und haben einen endlichen zweiten Moment. Im Hilbertraum von Zufallsvariablen mit zweitem endlichen Moment (mit dem durch definierten inneren Produkt von , ) können wir interpretieren als die Projektion von auf den Raum der Funktionen von .XXXYYYT1,T2T1,T2T_1,T_2E(T1T2)E(T1T2)E(T_1T_2)||T||2=E(T2)||T||2=E(T2)||T||^2=E(T^2)E(Y|X)E(Y|X)E(Y|X)YYYXXX Wir wissen auch, dass das Gesetz der totalen Varianz lautet: Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X)) + …

3
Wenn IID sind, dann berechne , wobei
Frage Wenn IID sind, dann berechne , wobei .X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right)T=∑iXiT = \sum_i X_i Versuch : Bitte überprüfen Sie, ob das unten stehende korrekt ist. Nehmen wir an, wir nehmen die Summe dieser bedingten Erwartungen so, dass Dies bedeutet, dass jedes da IID sind.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i …

2
Bedingte Erwartung einer exponentiellen Zufallsvariablen
Für eine Zufallsvariable ist X∼Exp(λ)X∼Exp(λ)X\sim \text{Exp}(\lambda) ( E[X]=1λE[X]=1λ\mathbb{E}[X] = \frac{1}{\lambda} ) Ich fühle intuitiv, dassE[X|X>x]E[X|X>x]\mathbb{E}[X|X > x]sollte gleichx+E[X]x+E[X]x + \mathbb{E}[X]da durch die memorylose Eigenschaft die Verteilung vonX|X>xX|X>xX|X > xist dasselbe wieXXXjedoch umnach rechts verschobenxxx. Ich bemühe mich jedoch, die memorylose Eigenschaft zu verwenden, um einen konkreten Beweis zu liefern. Jede …


1
Fisher's Exact Test und hypergeometrische Verteilung
Ich wollte den genauen Test des Fischers besser verstehen, deshalb habe ich das folgende Spielzeugbeispiel entwickelt, bei dem f und m männlich und weiblich und n und y dem "Sodakonsum" wie folgt entsprechen: > soda_gender f m n 0 5 y 5 0 Dies ist natürlich eine drastische Vereinfachung, aber …

1
R / mgcv: Warum produzieren te () und ti () Tensorprodukte unterschiedliche Oberflächen?
Das mgcvPaket für Rhat zwei Funktionen zum Anpassen von Tensorproduktwechselwirkungen: te()und ti(). Ich verstehe die grundlegende Arbeitsteilung zwischen den beiden (Anpassen einer nichtlinearen Wechselwirkung vs. Zerlegen dieser Wechselwirkung in Haupteffekte und eine Wechselwirkung). Was ich nicht verstehe, ist warum te(x1, x2)und ti(x1) + ti(x2) + ti(x1, x2)kann (leicht) unterschiedliche Ergebnisse …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
Einfacherer Weg, um
Betrachten Sie 3 iid-Proben, die aus der Gleichverteilung , wobei ein Parameter ist. Ich möchte wobei die Ordnungsstatistik .θ E [ X ( 2 ) | X ( 1 ) , X ( 3 ) ]u(θ,2θ)u(θ,2θ)u(\theta, 2\theta)θθ\thetaE[X(2)|X(1),X(3)]E[X(2)|X(1),X(3)] \mathbb{E}\left[X_{(2)}| X_{(1)}, X_{(3)}\right] X(i)X(i)X_{(i)}iii Ich würde erwarten, dass das Ergebnis Aber der einzige …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.