Ich habe ein Experiment, das ich hier zu abstrahieren versuchen werde. Stellen Sie sich vor, ich werfe drei weiße Steine vor Sie und bitte Sie, ein Urteil über ihre Position zu fällen. Ich nehme eine Vielzahl von Eigenschaften der Steine und Ihre Reaktion auf. Ich mache das über eine Reihe von Themen. Ich generiere zwei Modelle. Einer ist, dass der nächste Stein Ihre Reaktion vorhersagt, und der andere ist, dass der geometrische Mittelpunkt der Steine Ihre Reaktion vorhersagt. Mit lmer in RI könnte man also schreiben.
mNear <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center + (1|subject), REML = FALSE)
UPDATE AND CHANGE - direktere Version mit mehreren hilfreichen Kommentaren
ich könnte es versuchen
anova(mNear, mCenter)
Das ist natürlich falsch, weil sie nicht verschachtelt sind und ich sie nicht wirklich so vergleichen kann. Ich hatte erwartet, dass anova.mer einen Fehler auslöst, aber das war nicht der Fall. Aber die mögliche Verschachtelung, die ich hier versuchen könnte, ist nicht natürlich und lässt mich immer noch mit etwas weniger analytischen Aussagen zurück. Wenn Modelle natürlich verschachtelt sind (z. B. quadratisch auf linear), ist der Test nur eine Möglichkeit. Aber was würde es in diesem Fall bedeuten, asymmetrische Befunde zu haben?
Zum Beispiel könnte ich ein Modell drei machen:
mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)
Dann kann ich anova.
anova(mCenter, mBoth)
anova(mNearest, mBoth)
Dies ist fair zu tun und jetzt finde ich, dass die Mitte zum nächsten Effekt (dem zweiten Befehl) beiträgt, aber der BIC tatsächlich steigt, wenn die nächste zur Mitte hinzukommt (Korrektur für die niedrigere Sparsamkeit). Dies bestätigt, was vermutet wurde.
Aber ist das ausreichend? Und ist das fair, wenn das Zentrum und das nächste so stark korrelieren?
Gibt es eine bessere Möglichkeit, die Modelle analytisch zu vergleichen, wenn es nicht darum geht, erklärende Variablen (Freiheitsgrade) zu addieren und zu subtrahieren?