Ich zeige das Ergebnis für jede multiple lineare Regression, unabhängig davon, ob die Regressoren Polynome von oder nicht. Tatsächlich zeigt es ein wenig mehr als das, was Sie gefragt haben, weil es zeigt, dass jedes LOOCV-Residuum mit dem entsprechenden Leverage-Weighted-Residuum aus der vollständigen Regression identisch ist und nicht nur, dass Sie den LOOCV-Fehler wie in (5.2) (dort) erhalten können könnten andere Wege sein, in denen die Durchschnittswerte übereinstimmen, auch wenn nicht jeder Begriff im Durchschnitt gleich ist).Xt
Ich erlaube mir, eine leicht angepasste Notation zu verwenden.
Wir zeigen zuerst, dass
wobei die Schätzung unter Verwendung aller Daten ist und die Schätzung, wenn sie weggelassen wird , Beobachtung . Es sei als ein Zeilenvektor definiert, so dass . sind die Residuen.
β^−β^(t)=(u^t1−ht)(X′X)−1X′t,(A)
β^β^(t)X(t)tXty^t=Xtβ^u^t
Der Beweis verwendet das folgende matrixalgebraische Ergebnis.
Sei eine nicht singuläre Matrix, ein Vektor und ein Skalar. Wenn
dann
Abλ
λ≠−1b′A−1b
(A+λbb′)−1=A−1−(λ1+λb′A−1b)A−1bb′A−1(B)
Der Beweis von (B) folgt unmittelbar aus der Überprüfung von
{A−1−(λ1+λb′A−1b)A−1bb′A−1}(A+λbb′)=I.
Das folgende Ergebnis ist hilfreich, um (A) zu beweisen
(X′(t)X(t))−1X′t=(11−ht)(X′X)−1X′t. (C)
Der Nachweis der (C): durch (b) haben wir, indem ,
Also finden wir
∑Tt=1X′tXt=X′X
(X′(t)X(t))−1=(X′X−X′tXt)−1=(X′X)−1+(X′X)−1X′tXt(X′X)−11−Xt(X′X)−1X′t.
(X′(t)X(t))−1X′t=(X′X)−1X′t+(X′X)−1X′t(Xt(X′X)−1X′t1−Xt(X′X)−1X′t)=(11−ht)(X′X)−1X′t.
Der Beweis von (A) folgt nun aus (C): Als
wir
oder
Also,
where Die letzte Gleichheit folgt aus (C).
X′Xβ^=X′y,
(X′(t)X(t)+X′tXt)β^=X′(t)y(t)+X′tyt,
{Ik+(X′(t)X(t))−1X′tXt}β^=β^(t)+(X′(t)X(t))−1X′t(Xtβ^+u^t).
β^=β^(t)+(X′(t)X(t))−1X′tu^t=β^(t)+(X′X)−1X′tu^t1−ht,
Nun . Multiply durch in (A) durch , fügen auf beiden Seiten und neu anordnen zu bekommen, mit die sich ergebenden Residuen unter Verwendung ( ),
oder
ht=Xt(X′X)−1X′tXtytu^(t)β^(t)yt−Xtβ^(t)
u^(t)=u^t+(u^t1−ht)ht
u^(t)=u^t(1−ht)+u^tht1−ht=u^t1−ht