Wir kommen nicht dazu wählen . Der "normalisierende" Faktor ist im Wesentlichen ein "Varianzstabilisierender gegen etwas Endliches" Faktor, damit der Ausdruck nicht gegen Null oder gegen unendlich geht, wenn die Stichprobengröße gegen unendlich geht, sondern um eine Verteilung am Limit zu halten.
So muss es sein, was es in jedem Fall sein muss. Natürlich ist es interessant , dass in vielen Fällen zeigt sich, dass es hat zu seinn−−√ . (siehe aber auch @whubers Kommentar unten).
Ein Standardbeispiel, bei dem der Normalisierungsfaktor und nicht n sein mussnn−−√ ist, wenn wir ein Modell haben
yt=βyt−1+ut,y0=0,t=1,...,T
mit weißes Rauschen, und wir das Unbekannte schätzen β durch Ordinary Least Squares.utβ
In diesem Fall ist der wahre Wert des Koeffizienten , dann ist der OLS-Schätzer konsistent und konvergiert mit dem üblichen √|β|<1 rate. n−−√
Wenn jedoch stattdessen der wahre Wert (dh wir haben in Wirklichkeit einen reinen Zufallslauf), dann ist der OLS-Schätzer konsistent, konvergiert jedoch "schneller" mit der Rate n (dies wird manchmal als "superkonsistenter" Schätzer bezeichnet - seitdem Ich denke, so viele Schätzer konvergieren mit der Rate √β=1n ).
In diesem Fall seine (nicht normal) Häufigkeitsverteilung zu erhalten, wirhabenmaßstab( β -β)vonn(wenn wir nur skalierenn−−√
(β^−β)n der Ausdruck geht auf Null). Hamilton Kapitel 17hat die Details.n−−√