Ich denke, es ist der Unterschied, welche Tests berechnet werden. car::Anova
verwendet Wald-Tests, während drop1
das Modell einzelne Terme fallen lässt. John Fox hat mir einmal geschrieben, dass Wald-Tests und Tests von umgerüsteten Modellen unter Verwendung von Likelihood-Ratio-Tests (dh der Strategie von drop1
) für lineare, aber nicht unbedingt nichtlineare Modelle übereinstimmen. Leider war diese Mail offist und enthielt keinen Verweis. Aber ich weiß, dass sein Buch ein Kapitel über Wald-Tests enthält, das die gewünschten Informationen enthalten könnte.
Die Hilfe zu car::Anova
sagt:
Typ-II-Tests werden nach dem Prinzip der Marginalität berechnet, wobei jeder Begriff nach allen anderen getestet wird, außer dass die Verwandten höherer Ordnung des Begriffs ignoriert werden. Sogenannte Typ-III-Tests verletzen die Marginalität und testen jeden Begriff im Modell nach allen anderen. Diese Definition von Typ-II-Tests entspricht den von SAS für Varianzanalyse-Modelle erstellten Tests, bei denen alle Prädiktoren Faktoren sind, jedoch nicht allgemeiner (dh wenn quantitative Prädiktoren vorhanden sind). Seien Sie sehr vorsichtig bei der Formulierung des Modells für Typ-III-Tests, da sonst die getesteten Hypothesen keinen Sinn ergeben.
Leider kann ich Ihnen die zweite oder dritte Frage nicht beantworten, da ich das auch gerne wissen würde.
Aktualisierenden Kommentar aktualisieren :
Es gibt keine Wald-, LR- und F-Tests für verallgemeinerte gemischte Modelle. Anova
erlaubt "chisq"
und "F"
testet nur gemischte Modelle (dh "mer"
Objekte, wie sie von zurückgegeben werden lmer
). Der Verwendungsabschnitt sagt:
## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3),
test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)
Da jedoch die F-Tests für mer
Objekte von berechnet werden pbkrtest
, was meines Wissens nur für lineare gemischte Modelle Anova
funktioniert, sollten GLMMs immer zurückkehren chisq
(daher sehen Sie keinen Unterschied).
Update bezüglich der Frage:
Meine vorherige Antwort hat nur versucht, auf Ihre Hauptfrage zu antworten, den Unterschied zwischen Anova()
und drop1()
. Aber jetzt verstehe ich, dass Sie testen möchten, ob bestimmte feste Effekte signifikant sind oder nicht. In den häufig gestellten Fragen zur R-Sig-Mixed-Modellierung heißt es dazu:
Tests einzelner Parameter
Vom Schlimmsten zum Besten:
- Wald Z-Tests
- Für ausgeglichene, verschachtelte LMMs, bei denen df berechnet werden kann: Wald-t-Tests
- Likelihood-Ratio-Test, entweder durch Einrichten des Modells, sodass der Parameter isoliert / gelöscht werden kann (über Anova oder Drop1), oder durch Berechnen von Likelihood-Profilen
- MCMC- oder parametrische Bootstrap-Konfidenzintervalle
Effekttests (dh Testen, dass mehrere Parameter gleichzeitig Null sind)
Vom Schlimmsten zum Besten:
- Wald Chi-Quadrat-Tests (zB Auto :: Anova)
- Likelihood-Ratio-Test (über Anova oder Drop1)
- Für ausgeglichene, verschachtelte LMMs, bei denen df berechnet werden kann: bedingte F-Tests
- Für LMMs: bedingte F-Tests mit df-Korrektur (zB Kenward-Roger im pbkrtest-Paket)
- MCMC- oder parametrische oder nichtparametrische Bootstrap-Vergleiche (nichtparametrisches Bootstrapping muss sorgfältig implementiert werden, um Gruppierungsfaktoren zu berücksichtigen)
(Betonung hinzugefügt)
Dies weist darauf hin, dass Ihr Ansatz zur Verwendung car::Anova()
für GLMMs im Allgemeinen nicht empfohlen wird, jedoch ein Ansatz mit MCMC oder Bootstrap verwendet werden sollte. Ich weiß nicht, ob pvals.fnc
aus dem languageR
Paket Woks mit GLMMs stammen, aber es ist einen Versuch wert.