Nehmen wir an, wir haben ein Modell
mod <- Y ~ X*Condition + (X*Condition|subject)
# Y = logit variable
# X = continuous variable
# Condition = values A and B, dummy coded; the design is repeated
# so all participants go through both Conditions
# subject = random effects for different subjects
summary(model)
Random effects:
Groups Name Variance Std.Dev. Corr
subject (Intercept) 0.85052 0.9222
X 0.08427 0.2903 -1.00
ConditionB 0.54367 0.7373 -0.37 0.37
X:ConditionB 0.14812 0.3849 0.26 -0.26 -0.56
Number of obs: 39401, groups: subject, 219
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 2.49686 0.06909 36.14 < 2e-16 ***
X -1.03854 0.03812 -27.24 < 2e-16 ***
ConditionB -0.19707 0.06382 -3.09 0.00202 **
X:ConditionB 0.22809 0.05356 4.26 2.06e-05 ***
Hier beobachten wir eine singuläre Anpassung, da die Korrelation zwischen Intercept- und x-Zufallseffekten -1 beträgt. Gemäß diesem hilfreichen Link besteht eine Möglichkeit, mit diesem Modell umzugehen, darin, zufällige Effekte höherer Ordnung (z. B. X: Bedingung B) zu entfernen und zu prüfen, ob dies beim Testen auf Singularität einen Unterschied macht. Die andere besteht darin, den Bayes'schen Ansatz zu verwenden, z. B. das blme
Paket, um Singularität zu vermeiden.
Was ist die bevorzugte Methode und warum?
Ich frage dies, weil die Verwendung des ersten oder des zweiten zu unterschiedlichen Ergebnissen führt. Im ersten Fall entferne ich den Zufallseffekt X: ConditionB und kann die Korrelation zwischen den Zufallseffekten X und C: ConditionB nicht abschätzen. Andererseits blme
ermöglicht mir die Verwendung von X: ConditionB und die Schätzung der angegebenen Korrelation. Ich sehe keinen Grund, warum ich überhaupt die nicht-bayesianischen Schätzungen verwenden und zufällige Effekte entfernen sollte, wenn singuläre Anpassungen auftreten, wenn ich alles mit dem Bayes'schen Ansatz schätzen kann.
Kann mir jemand die Vorteile und Probleme erklären, die mit beiden Methoden auftreten, um mit einzelnen Anpassungen umzugehen?
Vielen Dank.