Was ist dieser Bias-Varianz-Kompromiss für Regressionskoeffizienten und wie kann er abgeleitet werden?


9

In diesem ( Bayesianische Inferenz für Varianzkomponenten, die nur Fehlerkontraste verwenden , Harville, 1974) behauptet der Autor als "bekannt" Beziehung ", für eine lineare Regression wobei y = X β

(yXβ)H1(yXβ)=(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
ϵ N ( 0 , H ) .
y=Xβ+ϵ,
ϵN(0,H).

Wie ist das bekannt? Was ist der einfachste Weg, dies zu beweisen?


1
Es ist auf Wikipedia , siehe 'Ableitung' dort.
user603

@ user603 Stört es Sie, den Link klarer zu machen? Vielen Dank!
Sibbs Gambling

@ user603 Entschuldigung, ich kann nicht wirklich sehen, wie der Link das Problem löst. In meinem Fall lautet die Gleichung für mich Var (y) = Bias + ... Können Sie das näher erläutern?
Sibbs Gambling

4
@SibbsGambling Beachten Sie, dass Ihre Gleichung in dieser Formulierung einer gewichteten linearen Regression zwei varianzbezogene Terme enthält . Der Ausdruck links bezieht sich auf die Varianz um das wahre Modell (gewichtet mit der Präzisionsmatrix ). Der erste Begriff auf der rechten Seite bezieht sich auf die Varianz um angepasste Modelle. Der zweite Term rechts bezieht sich auf das Quadrat der Vorspannung. Das ist der Varianz-Bias-Kompromiss. H1
EdM

Antworten:


6

Der letzte Term in der Gleichung kann wie folgt geschrieben werden

(XβXβ^)H1(XβXβ^).

In dieser Form sagt die Gleichung etwas Interessantes. Angenommen, ist positiv bestimmt und symmetrisch, so ist es auch umgekehrt. Daher können wir ein inneres Produkt , das uns Geometrie gibt. Dann sagt die obige Gleichheit im Wesentlichen, dass H<x,y>H1=xH1y

(XβXβ^)(yXβ^).

Ich wollte Ihnen diese Intuition geben, da ein Kommentator bereits einen Link zur Ableitung hinterlassen hat.

Edit: Für die Nachwelt

LHS:

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ=(A)(B)+(C)

RHS:

(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
=yH1y2yH1Xβ^+β^XH1Xβ^+βXH1Xβ2β^XH1Xβ+β^XH1Xβ^=(A)(D)+(E)+(C)(F)+(E)

Beziehung:

β^=(XH1X)1XH1y

Durch Einstecken der Beziehung können Sie zeigen, dass (B) = (F) und dass 2 (E) = (D). Alles erledigt.


Entschuldigung, ich kann nicht wirklich sehen, wie der Link das Problem löst. In meinem Fall lautet die Gleichung für mich Var (y) = Bias + ... Können Sie das näher erläutern?
Sibbs Gambling

@SibbsGambling hat meine Antwort einschließlich Ableitung bearbeitet.
jlimahaverford

@jlimahaverford Vergessen Sie nicht das am Ende der Formel für ? yβ^
Gumeo

7

Sie gelangen zu dieser Identität durch eine Technik, die als Vervollständigung des Quadrats bezeichnet wird. Die linke Seite hat eine quadratische Form. Multiplizieren Sie sie daher zunächst

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ

fort und schreiben Sie dann neu in Form von . Die Algebra ist ziemlich lang, aber googeln, um das Quadrat in der Bayes'schen Regression zu vervollständigen, und Sie können viele Hinweise finden. Siehe zum Beispiel die Wikipedia zur linearen Bayes'schen Regression und andere CrossValided-Antworten zum Ausfüllen des Quadrats, wie hier . β^=(XH1X)1XH1y


2

Wenn Sie Ihre Matrixalgebra kennen, sollte dies möglich sein, indem Sie alles multiplizieren und überprüfen, ob Sie tatsächlich auf beiden Seiten dasselbe haben. Dies hat jlimahaverford gezeigt.

Dazu benötigen Sie die Formel für die Schätzung von . Wir können die Formel auf ähnliche Weise wie für die lineare Regression ableiten, wenn wir nicht korrelierte Fehlerterme haben. Der Trick ist zu standardisieren.β^

Hier finden Sie einige Informationen zum Standardisieren eines Wohnmobils, das aus einer multivariaten Normalverteilung stammt. Nehmen wir an, Sie haben ist definitiv positiv, Sie können es also als faktorisieren . Nun kommt die Zufallsvariable aus der Verteilung . Jetzt können wir diesen Trick für unser Problem verwenden, um . Lassen Sie uns faktorisieren . Wir haben Now wurde so standardisiert, dass

XN(μ,Σ).
ΣΣ=PPT
Y=P1(Xμ)
N(0,I)β^H=PPT
y=Xβ+ϵP1y=P1Xβ+P1ϵ
ϵcov(P1ϵ)=I , daher können wir dies jetzt als einfaches multiples lineares Regressionsmodell behandeln, wobei: Wir haben also das Regressionsproblem: Die Formel für lautet Dies ist der Schlüssel, den Sie tun müssen Dies ist der Rest der algebraischen Manipulation, die in der Lösung von jlimahaverford demonstriert wurde.
X~=P1X,y~=P1yandϵ~=P1ϵ.
y~=X~β+ϵ~
β^
β^=(X~TX~)1X~Ty~=((P1X)TP1X)1(P1X)TP1y=(XT(PPT)1X)1X(PPT)1y=(XTH1X)1XH1y
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.