Im einfachsten Fall, wenn Sie nur einen Prädiktor haben (einfache Regression), sagen Sie , sagt Ihnen der F- Test, ob die Einbeziehung von X 1 einen größeren Teil der in Y beobachteten Varianz erklärt als das Nullmodell (nur Achsenabschnitt). . Die Idee ist dann zu testen, ob die hinzugefügte erklärte Varianz (Gesamtvarianz, TSS, minus Restvarianz, RSS) groß genug ist, um als "signifikante Größe" angesehen zu werden. Wir vergleichen hier ein Modell mit einem Prädiktor oder einer erklärenden Variablen mit einer Basislinie, die nur "Rauschen" ist (nichts außer dem großen Mittelwert).X1FX1Y
FFtz
F
F=(TSS−RSS)/(p−1)RSS/(n−p),
pnFp−1,n−pp
M0M1pq=p+1RSSM1−RSSM0(RSSM1−RSSM0)/RSSM0p−qn−pFp−qn−pFFαα=0.05
Eine Verallgemeinerung der obigen Idee ist der Likelihood-Ratio-Test .
Wenn Sie R verwenden, können Sie mit den obigen Konzepten wie folgt spielen:
df <- transform(X <- as.data.frame(replicate(2, rnorm(100))),
y = V1+V2+rnorm(100))
## simple regression
anova(lm(y ~ V1, df)) # "ANOVA view"
summary(lm(y ~ V1, df)) # "Regression view"
## multiple regression
summary(lm0 <- lm(y ~ ., df))
lm1 <- update(lm0, . ~ . -V2) # reduced model
anova(lm1, lm0) # test of V2