Diese Frage / dieses Thema kam in einer Diskussion mit einem Kollegen auf und ich suchte nach einigen Meinungen dazu:
Ich modelliere einige Daten mithilfe einer logistischen Regression mit zufälligen Effekten, genauer gesagt einer logistischen Regression mit zufälligen Abschnitten. Für die festen Effekte habe ich 9 Variablen, die von Interesse sind und in Betracht kommen. Ich möchte eine Art Modellauswahl treffen, um die signifikanten Variablen zu finden und das „beste“ Modell zu erhalten (nur Haupteffekte).
Meine erste Idee war, den AIC zu verwenden, um verschiedene Modelle zu vergleichen, aber mit 9 Variablen war ich nicht zu aufregend, um 2 ^ 9 = 512 verschiedene Modelle zu vergleichen (Schlüsselwort: Datenbaggerung).
Ich habe dies mit einem Kollegen besprochen und er hat mir erzählt, dass er sich daran erinnert hat, über die schrittweise (oder vorwärtsgerichtete) Modellauswahl mit GLMMs gelesen zu haben. Anstatt jedoch einen p-Wert zu verwenden (z. B. basierend auf einem Likelihood-Ratio-Test für GLMMs), sollte der AIC als Ein- / Ausstiegskriterium verwendet werden.
Ich fand diese Idee sehr interessant, fand aber keine Referenzen, die dies weiter diskutierten, und mein Kollege erinnerte sich nicht daran, wo er sie gelesen hatte. Viele Bücher schlagen vor, den AIC zum Vergleichen von Modellen zu verwenden, aber ich fand keine Diskussion darüber, dies zusammen mit einem schrittweisen oder vorwärts gerichteten Modellauswahlverfahren zu verwenden.
Ich habe also grundsätzlich zwei Fragen:
Ist etwas falsch daran, den AIC in einem schrittweisen Modellauswahlverfahren als Ein- / Ausstiegskriterium zu verwenden? Wenn ja, welche Alternative wäre das?
Haben Sie einige Referenzen, die das oben beschriebene Verfahren diskutieren (auch als Referenz für einen Abschlussbericht?
Beste,
Emilia