Der erwartete Wert einer Zufallsvariablen ist ein gewichteter Durchschnitt aller möglichen Werte, die eine Zufallsvariable annehmen kann, wobei die Gewichte der Wahrscheinlichkeit entsprechen, diesen Wert anzunehmen.
Für unabhängige Zufallsvariablen und gibt es einen Ausdruck in geschlossener Form fürαα\alphaββ\beta E[αα2+β2√]E[αα2+β2]\mathbb E \left[ \frac{\alpha}{\sqrt{\alpha^2 + \beta^2}} \right] in Bezug auf die erwarteten Werte und Varianzen von und ? Wenn nicht, gibt es eine gute Untergrenze für diese Erwartung?βαα\alphaββ\beta Update: Ich kann auch erwähnen, dass und . Ich kann …
Wenn , wo die Unterstützung von ist . Also ist . Dann nehme ich an, hat endliche Momente. Wenn , weiß ich, dass dies wobei die zugehörige Dichte von . Was die mathematische Äquivalent davon hat endliche Momente , wenn ?X∼FX∼FX \sim FXXXRpRp\mathbb{R}^pX=(X1,X2,…,Xp)X=(X1,X2,…,Xp)X = (X_1, X_2, \dots, X_p)XXXkkkp=1p=1p = 1∫Rxkf(x)dx<∞,∫Rxkf(x)dx<∞,\int_{\mathbb{R}} …
Im Zusammenhang mit der wahrscheinlichkeitsbasierten Inferenz habe ich einige Notationen bezüglich der interessierenden Parameter gesehen, die ich etwas verwirrend fand. Zum Beispiel Notation wie pθ( x )pθ(x)p_{\theta}(x) und E.θ[ S.( θ ) ]Eθ[S(θ)]{\mathbb E}_{\theta}\left[S(\theta)\right] . Welche Bedeutung hat der Parameter ( θθ\theta ) in der obigen Indexnotation? Mit anderen Worten, …
Ich versuche die Erklärung der KL-Divergenz unten zu verstehen. Es bezieht sich, wie ich es verstehe, auf eine Erwartung im zweiten Semester. "Annäherung der Erwartung über q in diesem Term". Wir multiplizieren jedoch q (x) mit dem Protokoll von p (x) (und nicht mit p (x). Ist es immer noch …
Es sei angenommen , X = (X1,...,Xn)(X1,...,Xn)(X_1, ..., X_n) ~ U(θ,2θ)U(θ,2θ)U(\theta, 2\theta) , wobei θ∈R+θ∈R+\theta \in \Bbb{R}^+ . Wie berechnet man die bedingte Erwartung von E[X1|X(1),X(n)]E[X1|X(1),X(n)]E[X_1|X_{(1)},X_{(n)}] , wobei X(1)X(1)X_{(1)} und X(n)X(n)X_{(n)} die kleinste bzw. größte Ordnungsstatistik sind? Mein erster Gedanke wäre, dass die Bestellstatistik den Bereich begrenzt und einfach (X(1)+X(n))/2(X(1)+X(n))/2(X_{(1)}+X_{(n)})/2 …
Ich habe eine Zufallsvariable und kenne .Y=eX1+eXY=eX1+eXY = \frac{e^{X}}{1 + e^{X}}X∼N(μ,σ2)X∼N(μ,σ2)X \sim N(\mu, \sigma^2) Gibt es eine Möglichkeit, zu berechnen ? Ich habe versucht, das Integral herauszuarbeiten, aber keine großen Fortschritte gemacht. Ist es überhaupt möglich?E(Y)E(Y)\mathbb{E}(Y)
Frau A wählt zufällig eine Zahl aus der Gleichverteilung auf . Dann zieht Herr B wiederholt und unabhängig die Zahlen aus der Gleichverteilung auf , bis er eine Zahl größer als erhält , und stoppt dann. Die erwartete Summe der Zahl, die Herr B bei zieht, ist gleich?XXX[0,1][0,1][0, 1]Y1,Y2,...Y1,Y2,...Y_1, Y_2, …
Ich sehe mir an, wie sich der erwartete minimale euklidische Abstand zwischen zufällig einheitlichen Punkten und dem Ursprung ändert, wenn wir die Dichte zufälliger Punkte ( Punkte pro Quadrateinheit ) um den Ursprung erhöhen . Ich habe es geschafft, eine Beziehung zwischen den beiden als solche zu finden: Expected Min …
Ich sehe manchmal Leute, die Taylor Approximation wie folgt verwenden: E(ex)≈E(1+x)E(ex)≈E(1+x)E(e^x)\approx E(1+x) Ich weiß, dass die Taylor-Näherung für funktioniert ex≈1+xex≈1+xe^x \approx 1+x Mir ist jedoch nicht klar, dass wir die Annäherung innerhalb des Erwartungsoperators durchführen können. Intuitiv denke ich, dass es funktioniert, wenn "die Wahrscheinlichkeit, dass viel größer als 0 …
Kann einer unserer Monte-Carlo-Experten die "unerwartete" Erwartung am Ende dieser Antwort erklären ? Ex-post- Zusammenfassung der anderen Frage / Antwort: Wenn IID-Zufallsvariablen sind und die Erwartungen existieren, zeigt ein einfaches Symmetrieargument , dass , aber ein Monte-Carlo-Experiment mit scheint diesem Satz zu widersprechen.X1,…,XnX1,…,XnX_1,\dots,X_nE[Xi/X¯]E[Xi/X¯]\mathrm{E}[X_i/\bar{X}]E[Xi/X¯]=1E[Xi/X¯]=1\mathrm{E}[X_i/\bar{X}]=1Xi∼N(0,1)Xi∼N(0,1)X_i\sim\mathrm{N}(0,1) x <- matrix(rnorm(10^6), nrow = 10^5) mean(x[,2]/rowMeans(x)) …
Angenommen, ist ein k × 1- Vektor von Zufallsvariablen. Dann überprüfen Sie bitte , ob E X ' ( E X X ' ) - 1 E X ≤ 1 ist .X.XXk × 1k×1k\times 1E.X.'( E.X.X.')- 1E.X.≤ 1E.X.'(E.X.X.')- -1E.X.≤1EX^{\prime}(EXX^{\prime})^{-1}EX\leq 1 Wenn dies ein bekanntes Ergebnis, dass ( E X ) …
Wir haben ein Spiel, bei dem Ihre Auszahlung beträgt, wobei k die Häufigkeit ist, mit der Sie eine Münze geworfen haben, um auf Köpfen zu landen (wenn Ihr erster Wurf ein Kopf ist, dann ist k = 1 ). Dann ist die erwartete Auszahlung: E = 12k2k2^kkkkk=1k=1k=1E=1+1+1+. . . E=∞E=12(2)+14(4)+18(8)+...E=12(2)+14(4)+18(8)+...E …
Ich habe Folgendes in einem Lehrbuch gesehen und habe Schwierigkeiten, das Konzept zu verstehen. Ich verstehe, dass normalerweise mit E ( ) = 0 und Var ( ) = .X n X n 1X.nXnX_nX.nXnX_nX.nXnX_n1n1n\frac{1}{n} Ich verstehe jedoch nicht, warum das Multiplizieren von mit den Standard normal machen würde.√X.nXnX_nn- -- -√n\sqrt …
Ich zitiere (Hervorhebung meiner) aus der Wikipedia-Definition : Der Satz in der Wahrscheinlichkeitstheorie, bekannt als das Gesetz der Gesamterwartung, ... besagt, dass wenn X eine integrierbare Zufallsvariable ist (dh eine Zufallsvariable, die E (| X |) <∞ erfüllt) und Y eine beliebige Zufallsvariable ist, nicht notwendigerweise integrierbar, auf demselben Wahrscheinlichkeitsraum …
Ist es möglich, die Erwartung einer Funktion einer Zufallsvariablen nur mit der CDF des RV zu berechnen? Angenommen, ich habe eine Funktion mit der Eigenschaft und die einzige Information, die ich über die Zufallsvariable habe, ist die CDF.∫ ∞ - ∞ g ( x ) d x ≤ ∞g(x)g(x)g(x)∫∞−∞g(x)dx≤∞∫−∞∞g(x)dx≤∞\int_{-\infty}^{\infty}g(x)dx \leq …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.