Eine grundlegende Eigenschaft der Regression mit zufälligen Effekten besteht darin, dass die zufälligen Abschnittsschätzungen in Abhängigkeit von der relativen Varianz jeder Schätzung in Richtung des Gesamtmittelwerts der Antwort "geschrumpft" werden.
Dies ist auch bei verallgemeinerten linearen gemischten Modellen (GLMMs) wie der logistischen Regression der Fall.
Wie ist diese Schrumpfung besser als / anders als die logistische Regression mit festen Effekten mit One-Hot-Codierung von ID-Variablen und Schrumpfung durch L2-Regularisierung?
In einem Modell mit festen Effekten kann ich das Ausmaß der Schrumpfung steuern, indem ich meine Strafe für die L2-Regularisierung ändere, während ich in einem Modell mit zufälligen Effekten keine Kontrolle über das Ausmaß der Schrumpfung habe. Wäre es richtig zu sagen "Verwenden Sie das Zufallseffektmodell, wenn das Ziel Inferenz ist, aber verwenden Sie das Festeffektmodell, wenn das Ziel Vorhersage ist"?