Ich verstehe, dass der Wald-Test für Regressionskoeffizienten auf der folgenden Eigenschaft basiert, die asymptotisch gilt (z. B. Wasserman (2006): All of Statistics , S. 153, 214-215): Wobei den geschätzten Regressionskoeffizienten bezeichnet, bezeichnet den Standardfehler des Regressionskoeffizienten und ist der interessierende Wert ( ist normalerweise 0, um zu testen, ob der Koeffizient ist) signifikant verschieden von 0). Der Size Wald-Test lautet also: reject whenβ^se(β)β0β0αH0| W| >zα/2
Wenn Sie jedoch eine lineare Regression mit lm
in R durchführen, wird ein Wert anstelle eines Werts verwendet, um zu testen, ob sich die Regressionskoeffizienten signifikant von 0 (mit ) unterscheiden. Darüber hinaus liefert die Ausgabe von in R manchmal und manchmal Werte als Teststatistik. Offensichtlich werden Werte verwendet, wenn angenommen wird, dass der Dispersionsparameter bekannt ist, und Werte werden verwendet, wenn der Dispersionsparameter geschätzt wird (siehe diesen Link ).z z t z tsummary.lm
glm
Könnte jemand erklären, warum manchmal eine Verteilung für einen Wald-Test verwendet wird, obwohl angenommen wird, dass das Verhältnis des Koeffizienten und seines Standardfehlers als Standardnormal verteilt ist?
Bearbeiten, nachdem die Frage beantwortet wurde
Dieser Beitrag enthält auch nützliche Informationen zu der Frage.
lm
glm