Ist die Frage der Neugier, dh Sie sind mit meiner Antwort hier nicht zufrieden ? Wenn nicht...
Die weitere Untersuchung dieser kniffligen Frage ergab, dass es eine häufig verwendete Faustregel gibt, die besagt, dass zwei Modelle nicht durch das Kriterium unterscheiden sind, wenn die Differenz | A I C 1 - A I C 2 | < 2 . Das selbe, das Sie tatsächlich in Wikipedia's Artikel über A I C lesen werden (beachten Sie, dass der Link anklickbar ist!). Nur für diejenigen, die nicht auf die Links klicken:AIC|AIC1−AIC2|<2AIC
schätzt die relative Unterstützung für ein Modell. Um dies in der Praxis anzuwenden, beginnen wir mit einer Reihe von Kandidatenmodellen und ermitteln dann die entsprechenden A I C -Werteder Modelle. Bestimmen Sie als nächstes den minimalen A I C -Wert. Die Auswahl eines Modells kann dann wie folgt erfolgen.AICAICAIC
Als grobe Faustregel mit Modellen ihrer innerhalb 1 - 2 der minimalen substanzielle Unterstützung haben und Berücksichtigung finden sollte Rückschlüsse zu machen. Modelle mit einem A I C innerhalb von etwa 4 bis 7 des Minimums haben eine erheblich geringere Unterstützung, während Modelle mit einem A I C > 10 über dem Minimum entweder im Wesentlichen keine Unterstützung haben und möglicherweise aus weiteren Überlegungen herausgenommen werden oder zumindest einige nicht erklären erhebliche strukturelle Abweichungen in den Daten.AIC1–2AIC4–7AIC>10
Ein allgemeinerer Ansatz lautet wie folgt:
Bezeichne die - Werte der Kandidatenmodelle von A I C 1 , A I C 2 , A I C 3 , ... , A I C R . Sei A I C m i n das Minimum dieser Werte. Dann e ( A I C m i n - A I C i ) / 2AICAIC1AIC2,AIC3,…,AICRAICmine(AICmin−AICi)/2kann als relative Wahrscheinlichkeit interpretiert werden, dass das te Modell den (erwarteten geschätzten) Informationsverlust minimiert.i
Angenommen, der Kandidatensatz enthält drei Modelle mit den -Werten 100 , 102 und 110 . Dann ist das zweite Modell e ( 100 - 102 ) / 2 = 0,368- mal so wahrscheinlich wie das erste Modell, um den Informationsverlust zu minimieren, und das dritte Modell ist e ( 100 - 110 ) / 2 = 0,007AIC100102110e(100−102)/2=0.368e(100−110)/2=0.007Mal so wahrscheinlich wie das erste Modell, um den Informationsverlust zu minimieren. In diesem Fall lassen wir das dritte Modell möglicherweise aus der weiteren Betrachtung aus und nehmen einen gewichteten Durchschnitt der ersten beiden Modelle mit den Gewichten bzw. 0,368 . Die statistische Inferenz würde dann auf dem gewichteten Multimodell basieren.10.368
Eine nette Erklärung und nützliche Vorschläge, meiner Meinung nach. Nur keine Angst davor zu lesen, was anklickbar ist!
In Außerdem , beachten Sie nochmals, ist weniger bevorzugt , für große Datenmengen. Zusätzlich zu B I C kann Sie nützlich Bias-korrigierte Version anzuwenden A I C Kriterium A I C C (Sie können so Code oder verwenden Sie die Formel A I C C = A I C + 2 p ( p + 1 )AICBICAICAICcR
, wobeipdie Anzahl der geschätzten Parameter ist). Die Faustregel ist jedoch dieselbe. AICc=AIC+2p(p+1)n−p−1p