Ich habe Folgendes in einem Lehrbuch gesehen und habe Schwierigkeiten, das Konzept zu verstehen. Ich verstehe, dass normalerweise mit E ( ) = 0 und Var ( ) = .X n X n 1X.nXnX_nX.nXnX_nX.nXnX_n1n1n\frac{1}{n} Ich verstehe jedoch nicht, warum das Multiplizieren von mit den Standard normal machen würde.√X.nXnX_nn- -- -√n\sqrt …
Ich versuche zu verstehen, wie die Kovarianzmatrix funktioniert. Nehmen wir also an, wir haben zwei Variablen: , wobei Cov ( X , Y ) = E [ ( x - E [ X ] ) ( y - E [ Y ] ) ] die Beziehung zwischen den Variablen angibt, …
Einfache Frage, aber überraschend schwierig, online eine Antwort zu finden. Ich weiß, dass wir für ein RV das k-te Moment als wobei die Gleichheit folgt, wenn , für eine Dichte und Lebesgue-Maß .≤ X k d P = ≤ x k f ( x ) d x p = f …
Ich versuche, die Erwartung für beliebiges c < 0 zu berechnen (für c > 0 ist die Erwartung unendlich), wenn X logarithmisch verteilt ist, dh log ( X ) ∼ N ( μ , σ ) .E.[ ec X.]]E[ecX]E[e^{cX}]c < 0c<0c<0c > 0c>0c>0X.XXLog( X.) ∼ N.( μ , σ)log(X)∼N(μ,σ)\log(X) \sim …
Einfache Frage, aber eine, auf die ich anderswo keine genaue Antwort finden konnte. Wie viele Momente einer diskreten Wahrscheinlichkeitsverteilung mit endlicher Unterstützung sind erforderlich, um die genaue Wahrscheinlichkeitsmassenfunktion eindeutig zu identifizieren? Angenommen, wir wissen, dass die Verteilung höchstens Punkte innerhalb eines begrenzten Intervalls unterstützt (für meine Zwecke ist das Intervall …
Wenn E|Xn|=O(an)E|Xn|=O(an)\mathbb{E}|X_n|=O(a_n), wo an→0an→0a_n\to 0 und XnXnX_n ist eine Folge von positiven Zufallsvariablen, wie groß sie sind Yn=Xnln(1Xn)Yn=Xnln(1Xn)Y_n = X_n\ln\left(\frac{1}{X_n}\right)? Mein Versuch: durch Markovs Ungleichung E|Xn|=O(an)E|Xn|=O(an)\mathbb{E}|X_n|=O(a_n) impliziert Xn=Op(an)Xn=Op(an)X_n=O_p(a_n) und Y.n=Öp(einn) ln(1X.n)Yn=Op(an)ln(1Xn)Y_n = O_p(a_n)\ln\left(\frac{1}{X_n}\right). Es bleibt zu beurteilenln(1X.n)ln(1Xn)\ln\left(\frac{1}{X_n}\right). Für eine positive Folge von ZufallsvariablenZ.n=Öp( 1 )Zn=Op(1)Z_n=O_p(1) X.n=einnZ.n⟺ln(X.n) = ln(einn) + ln(Z.n)⟺ln(1X.n)ln(1einn)=ln(Z.n)ln(einn)+ …
Eine Exponentialfamilie wird unter Verwendung von zwei Bestandteilen definiert: - eine Basisdichte - eine Anzahl ausreichender Statistikenq0(x)q0(x)q_0(x)Si(x)Si(x)S_i(x) Die Familie besteht aus allen Wahrscheinlichkeitsdichten, die geschrieben werden können als: q(x|(λ)i)∝q0(x)exp(∑iλiSi(x))q(x|(λ)i)∝q0(x)exp(∑iλiSi(x)) q(x| (\lambda)_i ) \propto q_0(x) \exp \left( \sum_i \lambda_i S_i(x) \right) Es ist bekannt, dass die Beziehung zwischen den Parametern und …
Gibt es in einer Simulationsstudie einen Unterschied zwischen ∙∙\bullet schätzt die Varianz , mal und nimmt ihren Durchschnitt undσ2σ2\sigma^2100010001000 ∙∙\bullet Abschätzen der Standardabweichung , mal und seine durchschnittliche Einnahme?σσ\sigma100010001000 Kann ich irgendjemanden davon machen? Gibt es eine Präferenz für eine bestimmte?
Gegeben ist eine Zufallsvariable X, deren Mittelwert, Varianz und viertes Zentralmoment 0, 2 bzw. 4 sind. Wie beweise ich das? (1) Der dritte Moment ist 0 (2) verteilen ist symmetrisch um 0 und (3) X ist begrenzt. Mit den obigen Informationen konnte ich nur feststellen, dass die Verteilung platykurtisch ist. …
Das folgende Lemma findet sich in Hayashis Ökonometrie : Lemma 2.1 (Konvergenz in Verteilung und in Momenten): Sei der te Moment von und wobei \ alpha_ {s} endlich ist (dh eine reelle Zahl). Dann:αsnαsn\alpha_{sn}sssznznz_{n}limn→∞αsn=αslimn→∞αsn=αs\lim_{n\to\infty}\alpha_{sn}=\alpha_{s}αsαs\alpha_{s} " zn→dzzn→dzz_{n} \to_{d} z " ⟹⟹\implies " αsαs\alpha_{s} ist der sss te Moment von zzz ." …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.