Als «asymptotics» getaggte Fragen

Die asymptotische Theorie untersucht die Eigenschaften von Schätzern und Teststatistiken, wenn sich die Stichprobengröße der Unendlichkeit nähert.

4
Was für eine Verteilung ist das?
Ich sah mich einer begrenzenden Verteilung mit einer Kovarianz von Null zwischen zwei Variablen gegenüber, aber ihre Korrelation ist . Gibt es eine solche Verteilung? Wie kann es erklärt werden?111 Sie haben Recht, vielleicht muss ich mehr Details geben. OK, X und Y sind bivariate Normalverteilungen mit unterschiedlichen Varianzen und …



1
Fisher Informationen für
Ich habe viele Leute gesehen, die die Delta-Methode verwendeten, um die asymptotische Verteilung von zu finden rrr, der Probenkorrelationskoeffizient für bivariate Normaldaten. Diese Verteilung ist gegeben durch n- -- -√( r - ρ )- -→D.N.( 0 ,( 1 -ρ2)2)n(r- -ρ)→D.N.(0,(1- -ρ2)2)\sqrt{n} \left( r-\rho \right) \xrightarrow{D} \mathcal{N} \left(0, \left(1-\rho^2\right)^2 \right) und …

2
Wenn
Wenn E|Xn|=O(an)E|Xn|=O(an)\mathbb{E}|X_n|=O(a_n), wo an→0an→0a_n\to 0 und XnXnX_n ist eine Folge von positiven Zufallsvariablen, wie groß sie sind Yn=Xnln(1Xn)Yn=Xnln⁡(1Xn)Y_n = X_n\ln\left(\frac{1}{X_n}\right)? Mein Versuch: durch Markovs Ungleichung E|Xn|=O(an)E|Xn|=O(an)\mathbb{E}|X_n|=O(a_n) impliziert Xn=Op(an)Xn=Op(an)X_n=O_p(a_n) und Y.n=Öp(einn) ln(1X.n)Yn=Op(an)ln⁡(1Xn)Y_n = O_p(a_n)\ln\left(\frac{1}{X_n}\right). Es bleibt zu beurteilenln(1X.n)ln⁡(1Xn)\ln\left(\frac{1}{X_n}\right). Für eine positive Folge von ZufallsvariablenZ.n=Öp( 1 )Zn=Op(1)Z_n=O_p(1) X.n=einnZ.n⟺ln(X.n) = ln(einn) + ln(Z.n)⟺ln(1X.n)ln(1einn)=ln(Z.n)ln(einn)+ …

1
Was kann mit MLE schief gehen, wenn ich einige Schätzungen der ersten Stufe anstelle einiger Parameter ersetze?
Angenommen, ich beschäftige mich anfangs mit der Log-Likelihood-Funktion , wobei \ theta_j \ in \ mathbb {R} .logL(θ1,…,θm,θm+1,…,θk)log⁡L(θ1,…,θm,θm+1,…,θk)\log L(\theta_1, \ldots, \theta_m, \theta_{m+1}, \ldots, \theta_k)θj∈Rθj∈R\theta_j \in \mathbb{R} Angenommen, ich habe aus irgendeinem Grund beschlossen, einige Schätzungen der ersten Stufe \ tilde {\ theta} _ {m + 1} , \ ldots , …

2
Der ökonometrische Text behauptet, dass Konvergenz in der Verteilung Konvergenz in Momenten impliziert
Das folgende Lemma findet sich in Hayashis Ökonometrie : Lemma 2.1 (Konvergenz in Verteilung und in Momenten): Sei der te Moment von und wobei \ alpha_ {s} endlich ist (dh eine reelle Zahl). Dann:αsnαsn\alpha_{sn}sssznznz_{n}limn→∞αsn=αslimn→∞αsn=αs\lim_{n\to\infty}\alpha_{sn}=\alpha_{s}αsαs\alpha_{s} " zn→dzzn→dzz_{n} \to_{d} z " ⟹⟹\implies " αsαs\alpha_{s} ist der sss te Moment von zzz ." …

2
Eine stetige Funktion einer Folge von Zufallsvektoren konvergiert mit der Wahrscheinlichkeit gegen die Funktion der Grenze
Satz: Wenn eine Folge von k-dimensionalen Zufallsvektoren st und wenn eine kontinuierliche Abbildung ist, dann ist .{Xn}{Xn}\{ X_n \}Xn→pXXn→pXX_n \overset{p}{\to} Xg:Rk→Rmg:Rk→Rmg: R^k \rightarrow R^mg(Xn)→pg(X)g(Xn)→pg(X)g(X_n) \overset{p}{\to} g(X) Beweis: Sei eine positive reelle Zahl. Dann geben wir ein wir haben KKKϵ>0ϵ>0\epsilon > 0 Ich verstehe nicht, warum einheitlich stetig ist und könnte …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.