Betrachten Sie das folgende Setup. Wir haben einen -dimensionale Parametervektor θ , der angibt , das Modell vollständig und ein Maximum-Likelihood - Schätzer θ . Die Fisher-Information in θ wird mit I ( θ ) bezeichnet . Was normalerweise als Wald-Statistik bezeichnet wird, istpθθ^θI(θ)
(θ^−θ)TI(θ^)(θ^−θ)
wo ist , die ausgewertete Fisher Informationen in der Maximum-Likelihood - Schätzer. Unter Regelmäßigkeitsbedingungen folgt die Wald-Statistik asymptotisch einer χ 2 -Verteilung mit p- Freiheitsgraden, wenn θ der wahre Parameter ist. Die Wald-Statistik kann verwendet werden, um eine einfache Hypothese H 0 zu testen : θ = θ 0 für den gesamten Parametervektor.I(θ^)χ2pθH0:θ=θ0
Mit die Inverse der Fisher Informationen Wald Prüfgröße der Hypothese H 0 : θ 1 = θ 0 , 1 ist
( θ 1 - θ 0 , 1 ) 2Σ ( θ )=I( θ)- 1H.0:: θ1= θ0 , 1
Seine asymptotische Verteilung ist eineχ2-Verteilung mit 1 Freiheitsgraden.
( θ^1- θ0 , 1)2Σ ( θ^)i i.
χ2
Für das normale Modell, bei dem der Vektor des Mittelwerts und der Varianzparameter ist, ist die Wald-Teststatistik des Testens, wenn μ = μ 0 ist,
nθ=(μ,σ2)μ=μ0
mitnder Probengröße. Hierσ2ist der Maximum-LikelihoodSchätzer fürσ2(wo man durch dividierenn). Diet-Test-Statistik ist
√
n(μ^−μ0)2σ^2
nσ^2σ2nt
wobei
s2der unverzerrte Schätzer der Varianz ist (wobei Sie durch
n-1dividieren). Die Wald-Teststatistik ist fast, aber nicht genau gleich dem Quadrat der
t-Teststatistik, aber sie sind asymptotisch äquivalent, wenn
n→∞. Die quadratische
t-Test-Statistik hat eine exakte
F(1,n-1)-Verteilung, diemit 1 Freiheitsgraden für
n→∞zur
χ2-Verteilungkonvergiert.
n−−√(μ^−μ0)s
s2n−1tn→∞tF(1,n−1)χ2n→∞
Die gleiche Geschichte gilt für den Test in der Einweg-ANOVA.F