Warum haben Anova () und drop1 () unterschiedliche Antworten für GLMMs geliefert?


10

Ich habe ein GLMM der Form:

lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + 
                (1 | factor3), family=binomial)

Wenn ich benutze drop1(model, test="Chi"), erhalte ich andere Ergebnisse als wenn ich Anova(model, type="III")aus dem Autopaket oder benutze summary(model). Diese beiden letzteren geben die gleichen Antworten.

Unter Verwendung einer Reihe von fabrizierten Daten habe ich festgestellt, dass sich diese beiden Methoden normalerweise nicht unterscheiden. Sie geben die gleiche Antwort für ausgeglichene lineare Modelle, unsymmetrische lineare Modelle (wobei n in verschiedenen Gruppen ungleich ist) und für ausgeglichene verallgemeinerte lineare Modelle, jedoch nicht für ausgeglichene verallgemeinerte lineare gemischte Modelle. Es scheint also, dass sich diese Zwietracht nur in Fällen manifestiert, in denen zufällige Faktoren enthalten sind.

  • Warum gibt es eine Diskrepanz zwischen diesen beiden Methoden?
  • Bei Verwendung von GLMM sollte Anova()oder drop1()sollte verwendet werden?
  • Der Unterschied zwischen diesen beiden ist zumindest für meine Daten eher gering. Ist es überhaupt wichtig, welche verwendet wird?

Antworten:


7

Ich denke, es ist der Unterschied, welche Tests berechnet werden. car::Anovaverwendet Wald-Tests, während drop1das Modell einzelne Terme fallen lässt. John Fox hat mir einmal geschrieben, dass Wald-Tests und Tests von umgerüsteten Modellen unter Verwendung von Likelihood-Ratio-Tests (dh der Strategie von drop1) für lineare, aber nicht unbedingt nichtlineare Modelle übereinstimmen. Leider war diese Mail offist und enthielt keinen Verweis. Aber ich weiß, dass sein Buch ein Kapitel über Wald-Tests enthält, das die gewünschten Informationen enthalten könnte.

Die Hilfe zu car::Anovasagt:

Typ-II-Tests werden nach dem Prinzip der Marginalität berechnet, wobei jeder Begriff nach allen anderen getestet wird, außer dass die Verwandten höherer Ordnung des Begriffs ignoriert werden. Sogenannte Typ-III-Tests verletzen die Marginalität und testen jeden Begriff im Modell nach allen anderen. Diese Definition von Typ-II-Tests entspricht den von SAS für Varianzanalyse-Modelle erstellten Tests, bei denen alle Prädiktoren Faktoren sind, jedoch nicht allgemeiner (dh wenn quantitative Prädiktoren vorhanden sind). Seien Sie sehr vorsichtig bei der Formulierung des Modells für Typ-III-Tests, da sonst die getesteten Hypothesen keinen Sinn ergeben.

Leider kann ich Ihnen die zweite oder dritte Frage nicht beantworten, da ich das auch gerne wissen würde.


Aktualisierenden Kommentar aktualisieren :

Es gibt keine Wald-, LR- und F-Tests für verallgemeinerte gemischte Modelle. Anovaerlaubt "chisq"und "F"testet nur gemischte Modelle (dh "mer"Objekte, wie sie von zurückgegeben werden lmer). Der Verwendungsabschnitt sagt:

## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3), 
    test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)

Da jedoch die F-Tests für merObjekte von berechnet werden pbkrtest, was meines Wissens nur für lineare gemischte Modelle Anovafunktioniert, sollten GLMMs immer zurückkehren chisq(daher sehen Sie keinen Unterschied).

Update bezüglich der Frage:

Meine vorherige Antwort hat nur versucht, auf Ihre Hauptfrage zu antworten, den Unterschied zwischen Anova()und drop1(). Aber jetzt verstehe ich, dass Sie testen möchten, ob bestimmte feste Effekte signifikant sind oder nicht. In den häufig gestellten Fragen zur R-Sig-Mixed-Modellierung heißt es dazu:

Tests einzelner Parameter

Vom Schlimmsten zum Besten:

  • Wald Z-Tests
  • Für ausgeglichene, verschachtelte LMMs, bei denen df berechnet werden kann: Wald-t-Tests
  • Likelihood-Ratio-Test, entweder durch Einrichten des Modells, sodass der Parameter isoliert / gelöscht werden kann (über Anova oder Drop1), oder durch Berechnen von Likelihood-Profilen
  • MCMC- oder parametrische Bootstrap-Konfidenzintervalle

Effekttests (dh Testen, dass mehrere Parameter gleichzeitig Null sind)

Vom Schlimmsten zum Besten:

  • Wald Chi-Quadrat-Tests (zB Auto :: Anova)
  • Likelihood-Ratio-Test (über Anova oder Drop1)
  • Für ausgeglichene, verschachtelte LMMs, bei denen df berechnet werden kann: bedingte F-Tests
  • Für LMMs: bedingte F-Tests mit df-Korrektur (zB Kenward-Roger im pbkrtest-Paket)
  • MCMC- oder parametrische oder nichtparametrische Bootstrap-Vergleiche (nichtparametrisches Bootstrapping muss sorgfältig implementiert werden, um Gruppierungsfaktoren zu berücksichtigen)

(Betonung hinzugefügt)

Dies weist darauf hin, dass Ihr Ansatz zur Verwendung car::Anova()für GLMMs im Allgemeinen nicht empfohlen wird, jedoch ein Ansatz mit MCMC oder Bootstrap verwendet werden sollte. Ich weiß nicht, ob pvals.fncaus dem languageRPaket Woks mit GLMMs stammen, aber es ist einen Versuch wert.


1
Danke, Henrik. Anova () kann drei verschiedene Tests berechnen: Wald, LR und F. Ich habe alle drei ausprobiert, aber es macht keinen Unterschied, was ich merkwürdig finde. Ich habe das Gefühl, dass die Funktion die Verwendung von Tests verweigert, die für die Daten nicht geeignet sind ...
tim.farkas
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.