Wie werden (lineare) Mischeffektmodelle normalerweise miteinander verglichen? Ich weiß, dass Likelihood-Ratio-Tests verwendet werden können, aber dies funktioniert nicht, wenn ein Modell nicht die richtige Teilmenge des anderen Modells ist.
Ist die Schätzung der Modelle df immer einfach? Anzahl der Fixeffekte + Anzahl der geschätzten Varianzkomponenten? Ignorieren wir die Schätzungen für zufällige Effekte?
Was ist mit der Validierung? Mein erster Gedanke ist die Kreuzvalidierung, aber zufällige Falten funktionieren aufgrund der Struktur der Daten möglicherweise nicht. Ist eine Methodik zum Auslassen eines Themas / Clusters angemessen? Was ist mit einer Beobachtung auslassen?
Mallows Cp kann als Schätzung des Vorhersagefehlers des Modells interpretiert werden. Die Modellauswahl über AIC versucht, den Vorhersagefehler zu minimieren (also sollten Cp und AIC dasselbe Modell auswählen, wenn die Fehler meiner Meinung nach Gauß'sch sind). Bedeutet dies, dass AIC oder Cp verwendet werden können, um ein "optimales" lineares Mischeffektmodell aus einer Sammlung nicht verschachtelter Modelle im Hinblick auf Vorhersagefehler auszuwählen? (vorausgesetzt, sie stimmen mit denselben Daten überein) Wählt BIC immer noch eher das „wahre“ Modell unter den Kandidaten aus?
Ich habe auch den Eindruck, dass wir beim Vergleich von Mischeffektmodellen über AIC oder BIC nur die festen Effekte als 'Parameter' in die Berechnung einbeziehen, nicht die tatsächlichen Modelle df.
Gibt es gute Literatur zu diesen Themen? Lohnt es sich, cAIC oder mAIC zu untersuchen? Haben sie eine spezifische Anwendung außerhalb von AIC?