Dies ist Problem 3.23 auf Seite 97 von Hastie et al., Elements of Statistical Learning , 2nd. ed. (5. Druck) .
Der Schlüssel zu diesem Problem ist ein gutes Verständnis der gewöhnlichen kleinsten Quadrate (dh der linearen Regression), insbesondere der Orthogonalität der angepassten Werte und der Residuen.
Orthogonalitäts-Lemma : Sei die n × p- Entwurfsmatrix, y der Antwortvektor und β die (wahren) Parameter. Unter der Annahme , X ist Voll Rang (die wir im ganzen Gebäude ), die OLS - Schätzungen von β sind β = ( X T X ) - 1 X T y . Die angepaßten Werte sind Y = X ( X T X ) - 1 X T y . dann ⟨X.n×pyβXββ^= ( X.T.X.)- 1X.T.yy^= X.( X.T.X.)- 1X.T.y. Das heißt, die angepassten Werte sindorthogonalzu den Residuen. Dies folgtdaXT(y - y )=XTy-XTX(XTX)-1XTy=XTy-XT⟨ y^, y- y^⟩ = Y^T.( y- y^) = 0 .X.T.( y- y^) = X.T.y- X.T.X.( X.T.X.)- 1X.T.y= X.T.y- X.T.y= 0
Nun sei ein Spaltenvektor, so dass x j die j- te Spalte von X ist . Die angenommenen Bedingungen sind:xjxjjX.
- für jedesj,11N.⟨ xj, xj⟩ = 1j,1N.⟨ y, y⟩ = 1
- wo1pein Vektor von Einsen der Länge bezeichnetp, und1N.⟨ xj, 1p⟩ = 1N.⟨ y, 1p⟩ = 01pp
- für allej.1N.| ⟨ xj, y⟩ | = λj
Beachten Sie, dass insbesondere die letzte Anweisung des Orthogonalität Lemma identisch mit für alle j .⟨ xj, y- y^⟩ = 0j
Die Korrelationen sind gebunden
Nun . So,
⟨ x j , y - u ( a ) ⟩ = ⟨ x j , ( 1 - α ) y + α y - α y ⟩ = ( 1 - α ) ⟨ x j , y ⟩ + α ⟨u ( α ) = α X.β^= α y^
und der zweite Term auf der rechten Seite gleich Null von derOrthogonalität Lemmas, so
1
⟨ xj, y- u ( a ) ⟩ = ⟨ xj, ( 1 - α ) y+ α y- α y^⟩ = ( 1 - α ) ⟨ xj, y⟩ + & Agr; ⟨ xj, y- y^⟩ ,
wie gewünscht. Der absolute Wert der Korrelationen sind nur
ρ j(α)= 11N.| ⟨ xj, y- u ( α ) ⟩ | = ( 1 - α ) λ ,
ρ^j( α ) = 1N.| ⟨ xj, y- u ( α ) ⟩ |1N.⟨ xj, xj⟩- -- -- -- -- -- -- -- -√1N.⟨ y- u ( α ) , y- u ( α ) ⟩- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -√=( 1 - α ) λ1N.⟨ y- -u ( α ) , y- -u ( α ) ⟩- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -√
jxjy
αp
Explizite Form der (absoluten) Korrelation
⟨y- u ( α ) ,y- u ( α ) ⟩ = ⟨ ( 1 - α ) y+ αy- u ( α ) , ( 1 - α ) y+ αy- u ( α ) ⟩ .
u ( α ) = α y^
⟨y- u ( α ) ,y- u ( α ) ⟩ = ( 1 - α )2⟨ y, y⟩ + 2 α ( 1 - α ) ⟨ y,y- y^⟩ + Α2⟨y- y^,y- y^⟩ .
Beachten Sie das
- ⟨y,y⟩ = N.
- ⟨y,y- y^⟩ = ⟨ Y- y^,y- y^⟩ + ⟨ Y^,y- y^⟩ = ⟨ Y- y^,y- y^⟩
- ⟨ y- y^, y- y^⟩ = R S S.
Wenn Sie das alles zusammenfügen, werden Sie feststellen, dass wir bekommen
ρ^j( α ) = ( 1 - α ) λ( 1 - α )2+ α ( 2 - α )N.R S S.- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -√= ( 1 - α ) λ( 1 - α )2( 1 - R S S.N.) + 1N.R S S.- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -√
1 - R S S.N.= 1N.( ⟨ Y,y, ⟩ - ⟨ y- y^,y- y^⟩ ) ≥ 0ρ^j( α )αρ^j( α ) ↓ 0α ↑ 1
Epilog : Konzentrieren Sie sich hier auf die Ideen. Es gibt wirklich nur einen. Das Orthogonalitäts-Lemma erledigt fast die gesamte Arbeit für uns. Der Rest ist nur Algebra, Notation und die Fähigkeit, die letzten beiden zum Laufen zu bringen.