Dies ist eine ziemlich alte Frage mit einigen sehr guten Antworten, aber ich denke, sie kann von einer neuen Antwort profitieren, um eine pragmatischere Perspektive anzusprechen.
Wann sollte man nicht zulassen, dass ein fester Effekt über die Ebenen eines zufälligen Effekts hinweg variiert?
Ich werde nicht auf die Probleme eingehen, die bereits in den anderen Antworten beschrieben wurden, sondern auf das mittlerweile berühmte, obwohl ich eher "berüchtigtes" Papier von Barr et al. (2013) sagen würde, das oft nur als "Keep it maximal" bezeichnet wird.
Barr, DJ, Levy, R., Scheepers, C. und Tily, HJ, 2013. Random-Effects-Struktur für das Testen von Bestätigungshypothesen: Halten Sie es maximal. Journal of Memory and Language, 68 (3), S. 255-278.
In diesem Artikel argumentieren die Autoren, dass alle festen Effekte über die Ebenen der Gruppierungsfaktoren (zufällige Abschnitte) variieren dürfen. Ihre Argumentation ist sehr überzeugend - im Grunde genommen bedeutet dies, dass das Modell Einschränkungen unterliegt , wenn sie nicht variiert werden dürfen. Dies ist in den anderen Antworten gut beschrieben. Es gibt jedoch potenziell schwerwiegende Probleme mit diesem Ansatz, die von Bates el al (2015) beschrieben werden:
Bates, D., Kliegl, R., Vasishth, S. und Baayen, H., 2015. Sparsame gemischte Modelle. arXiv-Vorabdruck arXiv: 1506.04967
An dieser Stelle ist anzumerken, dass Bates der Hauptautor des lme4
Pakets für die Anpassung gemischter Modelle in R ist, das wahrscheinlich das am häufigsten verwendete Paket für solche Modelle ist. Bates et al. Stellen fest, dass die Daten in vielen realen Anwendungen einfach keine maximale Zufallseffektstruktur unterstützen, da in jedem Cluster nicht genügend Beobachtungen für die relevanten Variablen vorliegen. Dies kann sich in Modellen manifestieren, die nicht konvergieren oder in den zufälligen Effekten singulär sind. Die große Anzahl von Fragen auf dieser Website zu solchen Modellen bestätigt dies. Sie stellen auch fest, dass Barr et al. Eine relativ einfache Simulation mit "gut erzogenen" Zufallseffekten als Grundlage für ihre Arbeit verwendeten. Stattdessen schlagen Bates et al den folgenden Ansatz vor:
Wir schlugen vor (1), PCA zu verwenden, um die Dimensionalität der Varianz-Kovarianz-Matrix der Zufallseffektstruktur zu bestimmen, (2) Korrelationsparameter zunächst auf Null zu beschränken, insbesondere wenn ein erster Versuch, ein maximales Modell anzupassen, nicht konvergiert. und (3) nicht signifikante Varianzkomponenten und ihre zugehörigen Korrelationsparameter aus dem Modell zu entfernen
In derselben Veröffentlichung stellen sie auch fest:
Wichtig ist, dass Konvergenzfehler nicht auf Defekte des Schätzalgorithmus zurückzuführen sind, sondern eine direkte Folge des Versuchs, ein Modell anzupassen, das zu komplex ist, um von den Daten ordnungsgemäß unterstützt zu werden.
Und:
Maximalmodelle sind zum Schutz vor antikonservativen Schlussfolgerungen nicht erforderlich. Dieser Schutz wird vollständig durch umfassende Modelle gewährleistet, die sich an realistischen Erwartungen hinsichtlich der Komplexität der Daten orientieren. In der Statistik ist Sparsamkeit wie anderswo in der Wissenschaft eine Tugend und kein Laster.
Bates et al. (2015)
Aus einer eher angewandten Perspektive sollte weiter überlegt werden, ob der Datenerzeugungsprozess, die biologische / physikalische / chemische Theorie, die den Daten zugrunde liegt, den Analytiker bei der Festlegung der Zufallseffektstruktur leiten sollte oder nicht.