In Matrixbegriffen haben Ihre Modelle die übliche Form . E[Y]=Xβ
Das erste Modell repräsentiert ein Element der ersten Gruppe durch die Zeile in X , entsprechend dem Achsenabschnitt, dem Indikator für Kategorie 2 und dem Indikator für Kategorie 3. Es repräsentiert ein Element der zweiten Gruppe durch die Zeile ( 1 , 1 , 0 )(1,0,0)X(1,1,0) und ein Element der dritten Gruppe durch .(1,0,1)
Das zweite Modell verwendet stattdessen die Zeilen , ( 1 , 2 , 2 2 ) = ( 1 , 2 , 4 ) und ( 1 , 3 , 3 2 ) = ( 1 , 3 , 9 ) .(1,1,12)=(1,1,1)(1,2,22)=(1,2,4)(1,3,32)=(1,3,9)
Nennen wir die resultierenden Modellmatrizen und X 2 . Sie sind einfach miteinander verbunden: Die Spalten der einen sind lineare Kombinationen der Spalten der anderen. Zum Beispiel lassenX1X2
V=⎛⎝⎜100112138⎞⎠⎟.
Dann seit
⎛⎝⎜111010001⎞⎠⎟V=⎛⎝⎜111123149⎞⎠⎟,
es folgt dem
X1V=X2.
Die Modelle selbst sind daher verwandt mit
X1β1=E[Y]=X2β2=(X1V)β2=X1(Vβ2).
Das heißt, die Koeffizienten für das zweite Modell müssen mit denen des ersten Modells über in Beziehung gesetzt werdenβ2
β1=Vβ2.
Die gleiche Beziehung gilt daher für ihre Schätzungen der kleinsten Quadrate. Dies zeigt, dass die Modelle identische Passformen haben : Sie drücken sie lediglich unterschiedlich aus.
Da die ersten Spalten der beiden Modellmatrizen identisch sind, ändert sich keine ANOVA-Tabelle, die die Varianz zwischen der ersten Spalte und den verbleibenden Spalten zerlegt. Eine ANOVA-Tabelle, die zwischen der zweiten und dritten Spalte unterscheidet, hängt jedoch davon ab, wie die Daten codiert werden.
Geometrisch (und etwas abstrakter) stimmt der dreidimensionale Unterraum von , der durch die Spalten von X 1 erzeugt wird, mit dem Unterraum überein, der durch die Spalten von X 2 erzeugt wird . Daher haben die Modelle identische Passformen. Die Anpassungen werden nur deshalb unterschiedlich ausgedrückt, weil die Räume mit zwei verschiedenen Basen beschrieben werden.R15X1X2
Zur Veranschaulichung finden Sie hier Daten wie Ihre (jedoch mit unterschiedlichen Antworten) und die entsprechenden Analysen, wie sie in generiert wurden R
.
set.seed(17)
D <- data.frame(group=rep(1:3, each=5), y=rnorm(3*5, rep(1:3, each=5), sd=2))
Passen Sie die beiden Modelle an:
fit.1 <- lm(y ~ factor(group), D)
fit.2 <- lm(y ~ group + I(group^2), D)
Zeigen Sie ihre ANOVA-Tabellen an:
anova(fit.1)
anova(fit.2)
Die Ausgabe für das erste Modell ist
Df Sum Sq Mean Sq F value Pr(>F)
factor(group) 2 51.836 25.918 14.471 0.000634 ***
Residuals 12 21.492 1.791
Für das zweite Modell ist es
Df Sum Sq Mean Sq F value Pr(>F)
group 1 50.816 50.816 28.3726 0.0001803 ***
I(group^2) 1 1.020 1.020 0.5694 0.4650488
Residuals 12 21.492 1.791
Sie können sehen, dass die verbleibenden Quadratsummen gleich sind. Durch Hinzufügen der ersten beiden Zeilen im zweiten Modell erhalten Sie den gleichen DF und die gleiche Quadratsumme, aus der der gleiche Mittelwert, der gleiche F-Wert und der gleiche p-Wert berechnet werden können.
Vergleichen wir abschließend die Koeffizientenschätzungen.
beta.1.hat <- coef(fit.1)
beta.2.hat <- coef(fit.2)
Die Ausgabe ist
(Intercept) factor(group)2 factor(group)3
0.4508762 2.8073697 4.5084944
(Intercept) group I(group^2)
-3.4627385 4.4667371 -0.5531225
V
⎛⎝⎜100112138⎞⎠⎟⎛⎝⎜−3.46273854.4667371−0.5531225⎞⎠⎟=⎛⎝⎜0.45087622.80736974.5084944⎞⎠⎟.
Die Passungen sind wirklich die gleichen wie behauptet.