Woher kommt in der einfachen linearen Regression die Formel für die Varianz der Residuen?


21

Nach einem von mir verwendeten Text lautet die Formel für die Varianz des ith -Rests wie folgt:

σ2(11n(xix¯)2Sxx)

Das finde ich schwer zu glauben , da die ith Rest die Differenz zwischen dem ist ith beobachteten Wert und dem ith ausgestattet Wert; Wenn man die Varianz der Differenz berechnen würde, würde ich zumindest einige "Pluspunkte" in dem resultierenden Ausdruck erwarten. Jede Hilfe zum Verständnis der Herleitung wäre dankbar.


Ist es möglich, dass einige " + " - Zeichen im Text als " " - Zeichen falsch wiedergegeben (oder falsch gelesen) werden?
Whuber

Ich hatte das gedacht, aber es passierte zweimal im Text (2 verschiedene Kapitel), daher hielt ich es für unwahrscheinlich. Natürlich würde eine Ableitung der Formel helfen! :)
Eric

Die Negative sind das Ergebnis der positiven Korrelation zwischen einer Beobachtung und ihrem angepassten Wert, wodurch die Varianz der Differenz verringert wird.
Glen_b -Reinstate Monica

@ Glen Vielen Dank für die Erklärung, warum sich herausstellt, dass die Formel zusammen mit Ihrer unten stehenden Matrixableitung sinnvoll ist.
Eric

Antworten:


27

Die Intuition über die "Plus" -Zeichen in Bezug auf die Varianz (aus der Tatsache, dass selbst wenn wir die Varianz einer Differenz unabhängiger Zufallsvariablen berechnen, addieren wir deren Varianzen) ist korrekt, aber fatal unvollständig: Wenn die beteiligten Zufallsvariablen nicht unabhängig sind sind dann auch Kovarianzen beteiligt - und Kovarianzen können negativ sein. Es gibt einen Ausdruck, der ist fast wie der Ausdruck in der Frage wurde angenommen , dass es „sollte“ durch das OP (und ich), und es ist die Varianz der Vorhersage Fehlers bezeichnet es mit y 0 = β 0 +e0=y0y^0 :y0=β0+β1x0+u0

Var(e0)=σ2(1+1n+(x0x¯)2Sxx)

Der entscheidende Unterschied zwischen der Varianz des Vorhersagefehlers und der Varianz des Schätzfehlers (dh des Restes), ist , dass der Fehlerausdruck der prädizierten Beobachtung ist nicht mit dem Schätzer korreliert , da der Wert wurde nicht bei der Konstruktion verwendet , der Schätzer und das Berechnen der Schätzer ist ein Wert außerhalb der Stichprobe.y0

Die Algebra für beide geht bis zu einem Punkt (mit 0 anstelle von i ) genauso vor, läuft dann aber auseinander. Speziell:0i

In der einfachen linearen Regression , Var ( u i ) = σ 2 die Varianz des Schätzers β = ( β 0 , β 1 ) ' ist nochyi=β0+β1xi+uiVar(ui)=σ2β^=(β^0,β^1)

Var(β^)=σ2(XX)1

We have

XX=[nxixixi2]

and so

(XX)1=[xi2xixin][nxi2(xi)2]1

We have

[nxi2(xi)2]=[nxi2n2x¯2]=n[xi2nx¯2]=n(xi2x¯2)nSxx

So

(XX)1=[(1/n)xi2x¯x¯1](1/Sxx)

which means that

Var(β^0)=σ2(1nxi2) (1/Sxx)=σ2nSxx+nx¯2Sxx=σ2(1n+x¯2Sxx)

Var(β^1)=σ2(1/Sxx)

Cov(β^0,β^1)=σ2(x¯/Sxx)

The i-th residual is defined as

u^i=yiy^i=(β0β^0)+(β1β^1)xi+ui

The actual coefficients are treated as constants, the regressor is fixed (or conditional on it), and has zero covariance with the error term, but the estimators are correlated with the error term, because the estimators contain the dependent variable, and the dependent variable contains the error term. So we have

Var(u^i)=[Var(ui)+Var(β^0)+xi2Var(β^1)+2xiCov(β^0,β^1)]+2Cov([(β0β^0)+(β1β^1)xi],ui)

=[σ2+σ2(1n+x¯2Sxx)+xi2σ2(1/Sxx)+2Cov([(β0β^0)+(β1β^1)xi],ui)

Pack it up a bit to obtain

Var(u^i)=[σ2(1+1n+(xix¯)2Sxx)]+2Cov([(β0β^0)+(β1β^1)xi],ui)

The term in the big parenthesis has exactly the same structure with the variance of the prediction error, with the only change being that instead of xi we will have x0 (and the variance will be that of e0 and not of u^i). The last covariance term is zero for the prediction error because y0 and hence u0 is not included in the estimators, but not zero for the estimation error because yi and hence ui is part of the sample and so it is included in the estimator. We have

2Cov([(β0β^0)+(β1β^1)xi],ui)=2E([(β0β^0)+(β1β^1)xi]ui)

=2E(β^0ui)2xiE(β^1ui)=2E([y¯β^1x¯]ui)2xiE(β^1ui)

the last substitution from how β^0 is calculated. Continuing,

...=2E(y¯ui)2(xix¯)E(β^1ui)=2σ2n2(xix¯)E[(xix¯)(yiy¯)Sxxui]

=2σ2n2(xix¯)Sxx[(xix¯)E(yiuiy¯ui)]

=2σ2n2(xix¯)Sxx[σ2nji(xjx¯)+(xix¯)σ2(11n)]

=2σ2n2(xix¯)Sxx[σ2n(xix¯)+(xix¯)σ2]

=2σ2n2(xix¯)Sxx[0+(xix¯)σ2]=2σ2n2σ2(xix¯)2Sxx

Inserting this into the expression for the variance of the residual, we obtain

Var(u^i)=σ2(11n(xix¯)2Sxx)

So hats off to the text the OP is using.

(I have skipped some algebraic manipulations, no wonder OLS algebra is taught less and less these days...)

SOME INTUITION

So it appears that what works "against" us (larger variance) when predicting, works "for us" (lower variance) when estimating. This is a good starting point for one to ponder why an excellent fit may be a bad sign for the prediction abilities of the model (however counter-intuitive this may sound...).
The fact that we are estimating the expected value of the regressor, decreases the variance by 1/n. Why? because by estimating, we "close our eyes" to some error-variability existing in the sample,since we essentially estimating an expected value. Moreover, the larger the deviation of an observation of a regressor from the regressor's sample mean, the smaller the variance of the residual associated with this observation will be... the more deviant the observation, the less deviant its residual... It is variability of the regressors that works for us, by "taking the place" of the unknown error-variability.

But that's good for estimation. For prediction, the same things turn against us: now, by not taking into account, however imperfectly, the variability in y0 (since we want to predict it), our imperfect estimators obtained from the sample show their weaknesses: we estimated the sample mean, we don't know the true expected value -the variance increases. We have an x0 that is far away from the sample mean as calculated from the other observations -too bad, our prediction error variance gets another boost, because the predicted y^0 will tend to go astray... in more scientific language "optimal predictors in the sense of reduced prediction error variance, represent a shrinkage towards the mean of the variable under prediction". We do not try to replicate the dependent variable's variability -we just try to stay "close to the average".


Thank you for a very clear answer! I'm glad that my "intuition" was correct.
Eric

Alecos, I really don't think this is right.
Glen_b -Reinstate Monica

@Alecos the mistake is in taking the parameter estimates to be uncorrelated with the error term. This part: Var(u^i)=Var(ui)+Var(β^0)+xi2Var(β^1)+2xiCov(β^0,β^1) isn't right.
Glen_b -Reinstate Monica

@Eric I apologize for misleading you earlier. I have tried to provide some intuition for both formulas.
Alecos Papadopoulos

+1 You can see why I did the multiple regression case for this... thanks for going to the extra effort of doing the simple-regression case.
Glen_b -Reinstate Monica

19

Sorry for the somewhat terse answer, perhaps overly-abstract and lacking a desirable amount of intuitive exposition, but I'll try to come back and add a few more details later. At least it's short.

Given H=X(XTX)1XT,

Var(yy^)=Var((IH)y)=(IH)Var(y)(IH)T=σ2(IH)2=σ2(IH)

Hence

Var(yiy^i)=σ2(1hii)

In the case of simple linear regression ... this gives the answer in your question.

This answer also makes sense: since y^i is positively correlated with yi, the variance of the difference should be smaller than the sum of the variances.

--

Edit: Explanation of why (IH) is idempotent.

(i) H is idempotent:

H2=X(XTX)1XTX(XTX)1XT =X [(XTX)1XTX] (XTX)1XT=X(XTX)1XT=H

(ii) (IH)2=I2IHHI+H2=I2H+H=IH


1
This is a very nice derivation for its simplicity, although one step that is not clear to me is why (IH)2=(IH). Maybe when you expand on your answer a little, as you're planning to do anyway, you could say a little something about that?
Jake Westfall

@Jake Am Ende ein paar Zeilen hinzugefügt
Glen_b -Reinstate Monica
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.