Die geometrische Interpretation der gewöhnlichen Regression der kleinsten Quadrate liefert den erforderlichen Einblick.
Das meiste, was wir wissen müssen, kann im Fall von zwei Regressoren und x 2 mit der Antwort y gesehen werden . Die standardisierten Koeffizienten oder "Betas" entstehen, wenn alle drei Vektoren auf eine gemeinsame Länge standardisiert sind (die wir als Einheit betrachten können). Somit sind x 1 und x 2 Einheitsvektoren in einer Ebene E 2 - sie befinden sich auf dem Einheitskreis - und y ist ein Einheitsvektor in einem dreidimensionalen euklidischen Raum E 3 , der diese Ebene enthält. Der Einbau Wert y ist die orthogonal (senkrecht) Projektionx1x2yx1x2E.2yE.3y^ auf E 2 . Da R 2 einfach die quadratische Länge ist y , brauchen wir nicht einmal alle drei Dimensionenvisualisieren: alle Informationenwir benötigenkönnen in dieser Ebene gezogen werden.yE.2R.2y^
Orthogonale Regressoren
Die schönste Situation ist, wenn die Regressoren wie in der ersten Abbildung orthogonal sind.
In dieser und den restlichen Abbildungen werde ich die Einheitsscheibe durchgehend in Weiß und die Regressoren als schwarze Pfeile zeichnen. zeigt immer direkt nach rechts. Die dicken Pfeile zeigen die roten Komponenten von y in der x 1 und x 2 Richtungen: das heißt, β 1 x 1 und β 2 x 2 . Die Länge von y ist der Radius des grauen Kreises , auf dem es liegt - aber denken Sie daran , dass R 2 die istx1y^x1x2β1x1β2x2y^R.2 quadratisch dieser Länge.
Der Satz von Pythagoras behauptet
R.2= | y^|2= | β1x1|2+ | β2x2|2= β21( 1 ) + β22( 1 ) = β21+ β22.
Da der Satz von Pythagoras in einer beliebigen Anzahl von Dimensionen gilt, verallgemeinert sich diese Argumentation auf eine beliebige Anzahl von Regressoren und liefert unser erstes Ergebnis:
Wenn die Regressoren orthogonal sind, entspricht der Summe der Quadrate der Betas.R.2
Eine unmittelbare Folge ist, dass wenn es nur einen Regressor gibt - univariate Regression - das Quadrat der standardisierten Steigung ist.R.2
Korreliert
Negativ korrelierte Regressoren treffen sich in Winkeln, die größer als ein rechter Winkel sind.
In diesem Bild ist visuell ersichtlich, dass die Summe der Quadrate der Betas streng größer als . Dies kann algebraisch unter Verwendung des Kosinusgesetzes oder durch Arbeiten mit einer Matrixlösung der Normalgleichungen bewiesen werden.R.2
Indem fast parallel die beiden Regressoren, können wir die Position y in der Nähe des Ursprungs (für ein R 2 in der Nähe von 0 ) , während er große Komponenten im haben weiterhin x 1 und x 2 Richtung. Somit gibt es keine Begrenzung, wie klein R 2 sein könnte.y^R.20x1x2R.2
Erinnern wir uns an dieses offensichtliche Ergebnis, unsere zweite Allgemeinheit:
Wenn Regressoren korreliert sind, kann beliebig kleiner sein als die Summe der Quadrate der Betas.R.2
Dies ist jedoch keine universelle Beziehung, wie die nächste Abbildung zeigt.
Jetzt überschreitet die Summe der Quadrate der Betas strikt. Indem die beiden Regressoren eng zusammen und halten y zwischen ihnen, können wir die Betas machen beide Ansatz 1 / 2 , auch wenn R 2 nahe an ist 1 . Weitere Analysen erfordern möglicherweise etwas Algebra: Ich nehme das unten auf.R.2y^1 / 2R.21
Ich überlasse es Ihrer Vorstellungskraft, ähnliche Beispiele mit positiv korrelierten Regressoren zu konstruieren, die sich dabei in spitzen Winkeln treffen.
Beachten Sie, dass diese Schlussfolgerungen unvollständig sind: Es gibt Grenzen, wie viel weniger mit der Summe der Quadrate der Betas verglichen werden kann. Insbesondere können Sie durch sorgfältige Prüfung der Möglichkeiten (für eine Regression mit zwei Regressoren) den Schluss ziehen, dassR.2
Wenn die Regressoren positiv korreliert sind und die Betas ein gemeinsames Vorzeichen haben oder wenn die Regressoren negativ korreliert sind und die Betas unterschiedliche Vorzeichen haben, muss mindestens so groß sein wie die Summe der Quadrate der Betas. R.2
Algebraische Ergebnisse
Im Allgemeinen seien die Regressoren (Spaltenvektoren) und die Antwort y . Standardisierungsmittel (a) jedes ist orthogonal zum Vektor ( 1 , 1 , … , 1 ) ' und (b) sie haben Einheitslängen:x1, x2, … , X.py( 1 , 1 , … , 1 )'
| xich|2= | y|2= 1.
Setze die Spaltenvektoren zu einer n × p- Matrix X zusammen . Die Regeln der Matrixmultiplikation implizieren diesxichn × pX.
Σ = X.'X.
ist die Korrelationsmatrix von . Die Betas sind durch die Normalgleichungen gegeben,xich
β= ( X.'X.)- 1X.'y= Σ- 1( X.'y) .
Darüber hinaus ist per Definition die Passform
y^= X.β= X.( Σ- 1X.'y) .
Seine quadratische Länge ergibt per Definition :R.2
R.2= | y^|2= y^'y^= ( X.β)'( X.β) = β'( X.'X.) β= β'Σ β.
Die geometrische Analyse ergab, dass wir nach Ungleichungen suchen, die betreffen.R.2
∑i = 1pβ2ich= β'β.
L.2EINp2
| A |22= ∑ich , jein2i j= tr( A.'A ) = tr( A A.') .
Die Cauchy-Schwarz-Ungleichung impliziert
R.2= tr( R.2) = tr( β'Σ β) = tr( Σ ββ') ≤ | Σ |2| ββ'|2= | Σ |2β'β.
1p2p × pΣ| Σ |21 × p2- -- -- -- -- -√= p
R.2≤ pβ'β.
xich
R.2R.2/ p
Schlussfolgerungen
R.2y^R.2
1.1301R.21
- 0,830,69R.20,20VO2max
R.2x1x2y^x1x2yum unbekannte Beträge (abhängig davon, wie alle drei mit den Kovariaten zusammenhängen), so dass wir fast nichts über die tatsächlichen Größen der Vektoren wissen, mit denen wir arbeiten.