Sie denken wahrscheinlich an den Test mit zwei Stichproben , da dies häufig der erste Ort ist, an dem die Verteilung auftritt. Aber wirklich alles, was ein Test bedeutet, ist, dass die Referenzverteilung für die Teststatistik eine Verteilung ist. Wenn und mit und unabhängig sind, dann
per Definition. Ich schreibe dies auf, um zu betonen, dass die t- Verteilung nur ein Name ist, der der Verteilung dieses Verhältnisses gegeben wurde, weil es häufig vorkommt und alles in dieser Form ein t hatttttZ∼N(0,1)S2∼χ2dZS2
ZS2/d−−−−√∼td
ttVerteilung. Für den t-Test mit zwei Stichproben erscheint dieses Verhältnis, weil unter der Null die Differenz im Mittel ein Gauß-Mittelwert von Null ist und die Varianzschätzung für unabhängige Gauß-Werte ein unabhängiges
χ2 (die Unabhängigkeit kann über
Basus Theorem gezeigt werden,
das das verwendet Tatsache, dass die Standardvarianzschätzung in einer Gaußschen Stichprobe dem Populationsmittelwert entspricht, während der Stichprobenmittelwert vollständig ist und für dieselbe Menge ausreicht).
Mit linearer Regression erhalten wir im Grunde das Gleiche. In Vektorform . Sei und nehme an, dass die Prädiktoren nicht zufällig sind. Wenn wir wüssten, hätten wir
unter der Null also würden wir tatsächlich Habe einen Z-Test. Aber sobald wir schätzen, erhalten wir eine Zufallsvariable, die sich unter unseren Normalitätsannahmen als unabhängig von unserer Statistik herausstellt, und dann erhalten wir eine Verteilung.S 2 j =(XTX) - 1 j j Xσ2 β j-0β^∼N(β,σ2(XTX)−1)S2j=(XTX)−1jjXσ2H0:βj=0σ2χ2 β jt
β^j- 0σSj∼ N( 0 , 1 )
H0: βj= 0σ2χ2β^jt
Hier sind die Details dazu: Nehmen wir an, . Wenn die Hutmatrix ist, haben wir
ist idempotent, also haben wir das wirklich schöne Ergebnis, dass
mit dem Nicht-Zentralitätsparameter , also ist dies tatsächlich ein zentrales mit Freiheitsgraden (dies ist ein Sonderfall von Cochran) Satz ). Ich benutze , um die Anzahl der Spalten von , also wenn eine Spalte vonH = X ( X T X ) - 1 X T ‖ e ‖ 2 = ‖ ( I - H ) y ‖ 2 = y T ( I - H ) y . H y T ( I - H ) y / σ 2 ∼ χy∼ N( Xβ, σ2ich)H= X( XTX)- 1XT
∥ e ∥2= ∥ ( I- H) y∥2= yT( Ich- H) y.
Hδ=βTXT(I-H)Xβ=βT(XTX-XTX)β=0χ2n-PpXXp-1Pn-P-1yT( Ich- H) y/ σ2~ χ2n - p( δ)
δ= βTXT( Ich- H) Xβ= βT( XTX- XTX) β= 0χ2n - ppXXGibt den Intercept an, dann hätten wir Non-Intercept Predictors. Einige Autoren verwenden , um die Anzahl der Non-Intercept-Prädiktoren zu bestimmen. Manchmal sieht man dort in den Freiheitsgraden so etwas wie , aber es ist alles dasselbe.
p - 1pn - p - 1
Dies hat zur Folge, dass , also funktioniert hervorragend als Schätzer für .σ 2 : = 1E( eTe / σ2) = n - pσ2σ^2: = 1n - peTeσ2
Dies bedeutet, dass
ist das Verhältnis eines Standard-Gaußschen zu einem Chi-Quadrat dividiert durch seine Freiheitsgrade. Um dies zu beenden, müssen wir Unabhängigkeit zeigen und können das folgende Ergebnis verwenden:
β^jσ^Sj= β^jSjeTe / ( n - p )----------√= β^jσSjeTeσ2( n - p )------√
Ergebnis: Für und die Matrizen und in und sind und unabhängig genau dann, wenn (dies ist Übung 58 (b) in Kapitel 1 der mathematischen Statistik von Jun Shao ).A B R l × k R m × k A Z B Z A Σ B T = 0Z∼ Nk( μ , Σ )EINBRl × kRm × kA ZB ZA Σ BT= 0
Wir haben und wobei . Dies bedeutet
also und daher .e=(I-H)yy~N(Xβ,σ2I)(XTX)-1XT⋅σ2I⋅(I-H)T=σ2((XTX)β^= ( XTX)- 1XTye = ( I- H) yy∼ N( Xβ, σ2ich) & bgr; ⊥e & bgr; ⊥eTe
( XTX)- 1XT⋅ σ2ich⋅ ( I- H)T= σ2( ( XTX)- 1XT- ( XTX)- 1XTX( XTX)- 1XT) =0
β^⊥ eβ^⊥ eTe
Das Fazit ist, dass wir nun nach Belieben
(unter allen obigen Annahmen).
β^jσ^Sj∼ tn - p
Hier ist der Beweis für dieses Ergebnis. Sei die Matrix, die durch Stapeln von auf . Dann ist
wobei
ist ein multivariater Gauß und es ist ein bekanntes Ergebnis, dass zwei Komponenten eines multivariaten Gauß unabhängig sind, wenn und nur wenn sie nicht korreliert sind, so dass die Bedingung genau äquivalent zu den Komponenten istC= ( AB)( l + m ) × kEINB
CZ= ( A ZB Z) ∼N( ( A μB μ) ,CΣ CT)
CΣ CT= ( AB) Σ( ATBT) = ( A Σ ATB Σ ATA Σ BTB Σ BT) .
CZA Σ BT= 0A Z und in nicht korreliert.
B ZCZ
□