Wie kann ein Vektor von Variablen eine Hyperebene darstellen?


11

Ich lese Elemente des statistischen Lernens und auf Seite 12 (Abschnitt 2.3) wird ein lineares Modell wie folgt notiert:

Y^=XTβ^

... wobei die Transponierte eines Spaltenvektors der Prädiktoren / unabhängigen Variablen / Eingaben ist. (Es heißt früher: "Es wird angenommen, dass alle Vektoren Spaltenvektoren sind." Würde dies nicht einem Zeilenvektor und einem Spaltenvektor machen?) X T βXTXTβ^

In ist eine " " enthalten, die mit dem entsprechenden Koeffizienten multipliziert wird, der den (konstanten) Achsenabschnitt ergibt.1X1

Es heißt weiter:

Im -dimensionalen Eingabe-Ausgabe-Raum repräsentiert eine Hyperebene. Wenn die Konstante in , enthält die Hyperebene den Ursprung und ist ein Unterraum. Wenn nicht, handelt es sich um eine affine Menge, die die Achse am Punkt schneidet .(p+1)X Y ( 0 , ^ β 0 )(X, Y^)XY(0, β0^)

Beschreibt " " einen Vektor, der durch die Verkettung der Prädiktoren, der " " des Abschnitts und ? Und warum zwingt das Einfügen einer " " in die Hyperebene, den Ursprung zu passieren, sicher, dass " " mit multipliziert werden soll ?1 Y 1 X 1 ^ β 0(X, Y^)1Y^1X1β0^

Ich verstehe das Buch nicht; Jede Hilfe / Beratung / Links zu Ressourcen wäre sehr dankbar.


4
Es könnte hilfreich sein, zuerst zu betrachten . In diesem Fall ist , wobei der Achsenabschnitt ist. Dies ist die Gleichung einer Linie, die durch . Erweiterungen zu höheren Dimensionen sind sofort möglich. y = β 0 + x β β 0 ( 0 , & bgr; 0 )p=1y^=β^0+xβ^β0(0,β^0)
Ocram

Wenn die Hilfe von @ocram nicht ausreicht, schreiben Sie die Vektoren auf und multiplizieren Sie sie.
Peter Flom - Monica wieder einsetzen

2
Hier ist eine schöne grafische Darstellung: blog.stata.com/2011/03/03/… . Die Notation ist anders, A da ist dein X und x ist . β^
Dimitriy V. Masterov

2
Das Buch ist falsch oder zumindest inkonsistent. Offensichtlich gibt es Variablen ohne die Konstante. Somit ist die Menge zwar eine Hyperebene, aber es ist falsch zu sagen, dass die Konstante "in " ist. Stattdessen denke ich, dass das Buch sagen soll, dass die Konstante in der Regression enthalten ist, aber dennoch nicht als Teil von . Daher sollte das Modell wirklich geschrieben werden wobei . Das Setzen von gibt sofort die Aussage über den Achsenabschnitt.{ ( X , Y ) | X R p } X X Y = β 0 + X ' β β = ( β 1 , & bgr; 2 , ... , β p ) ' X = 0p{(X,Y^)|XRp}XXY^=β^0+Xβ^β=(β1,β2,,βp)X=0
whuber

1
(Wenn wir stattdessen die Konstante in , können wir nicht über alle frei variieren lassen : Es ist beschränkt, innerhalb eines dimensionalen Unterraums zu liegen . Der Graph dann eine Codimension von mindestens und ist somit eigentlich keine "Hyperebene".)X R p p - 1 { ( X , Y ) } 2XXRpp1{(X,Y^)}2
whuber

Antworten:


3

Sei die Anzahl der Beobachtungen und die Anzahl der erklärenden Variablen.K.NK

N.X ist eigentlich eine Matrix. Nur wenn wir eine einzelne Beobachtung betrachten, bezeichnen wir jede Beobachtung gewöhnlich als - einen Zeilenvektor erklärender Variablen eines bestimmten Beobachtungsskalars multipliziert mit dem Spaltenvektor . Darüber hinaus ist ein Spaltenvektor, der alle Beobachtungen .N×KxiTK×1βYN×1Yn

Nun würde eine zweidimensionale Hyperebene zwischen dem Vektor und einem (!) Spaltenvektor von . Denken Sie daran, dass eine Matrix ist, sodass jede erklärende Variable durch genau einen Spaltenvektor der Matrix . Wenn wir nur eine erklärende Variable haben, keinen Achsenabschnitt und , befinden sich alle Datenpunkte entlang der zweidimensionalen Ebene, die von und überspannt wird .YXXN×KXYYX

Wie viele Dimensionen hat die Hyperebene zwischen und der Matrix für eine multiple Regression insgesamt ? Antwort: Da wir in Spaltenvektoren erklärender Variablen haben , müssen wir eine dimensionale Hyperebene haben.YXKXK+1

Normalerweise erfordert die Regression in einer Matrixeinstellung, dass ein konstanter Achsenabschnitt für eine vernünftige Analyse des Steigungskoeffizienten unverzerrt ist. Um diesem Trick Rechnung zu tragen, erzwingen wir, dass eine Spalte der Matrix nur aus " s" besteht. In diesem Fall steht der Schätzer allein multipliziert mit einer Konstanten für jede Beobachtung anstelle einer zufälligen erklärenden Variablen. Der Koeffizient stellt daher den erwarteten Wert von , , wird mit dem Wert 1 festgehalten und alle anderen Variablen sind Null. Daher wird die dimensionale Hyperebene um eine Dimension auf einen dimensionalen Unterraum reduziert , undX1β1β1Yx1iK+1Kβ1 entspricht dem "Achsenabschnitt" dieser dimensionalen Ebene.K

In Matrixeinstellungen ist es immer ratsam, den einfachen Fall von zwei Dimensionen zu betrachten, um zu sehen, ob wir eine Intuition für unsere Ergebnisse finden können. Hier ist es am einfachsten, sich die einfache Regression mit zwei erklärenden Variablen : oder alternativ ausgedrückt in der : wobei ist Matrix.

yi=β1x1i+β2x2i+ui
Y=Xβ+uXN×2

<Y,X> überspannt eine dreidimensionale Hyperebene.

Wenn wir nun alle zwingen , alle , erhalten wir: was unsere übliche einfache Regression ist, die in einem zweidimensionalen Diagramm dargestellt werden kann. Beachten Sie, dass jetzt auf eine zweidimensionale Linie reduziert wird - eine Teilmenge der ursprünglich dreidimensionalen Hyperebene. Der Koeffizient entspricht dem Schnittpunkt des Linienschneidens bei .x11

yi=β1i+β2x2i+ui
X, Y<Y,X>β1x2i=0

Es kann weiter gezeigt werden, dass es auch durchläuft wenn die Konstante enthalten ist . Wenn wir die Konstante weglassen, geht die Regressionshyperebene immer trivial durch - ohne Zweifel. Dies verallgemeinert sich auf mehrere Dimensionen, wie später beim Ableiten von : Da pro Definition den vollen Rang hat, ist , und die Regression geht durch den Ursprung, wenn wir den .<0,β1><0,0>βX y - X β = 0

(XX)β=Xy(XX)βXy=0X(yXβ)=0.
XyXβ=0

( Bearbeiten: Ich habe gerade festgestellt, dass dies für Ihre zweite Frage genau das Gegenteil von dem ist, was Sie über das Ein- oder Ausschließen der Konstante geschrieben haben. Ich habe jedoch bereits die Lösung hier entwickelt und stehe korrigiert, wenn ich mich in dieser Frage irre. )

Ich weiß, dass die Matrixdarstellung einer Regression am Anfang ziemlich verwirrend sein kann, aber letztendlich vereinfacht sie sich sehr, wenn komplexere Algebra abgeleitet wird. Hoffe das hilft ein bisschen.


1

Ich denke, der Weg, dies zu denken, besteht darin, diese Gleichung neu zu ordnen:

Y^XTβ^=0

Die einzige Möglichkeit, diese lineare Gleichung zu erhalten, um den Ursprung besteht darin, das vorhergesagte gleich dem Achsenabschnitt zu machen. Um diesen Wert zu schätzen, muss ein Intercept-Term in das Regressionsmodell aufgenommen werden.

Y^
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.