Verständnis AIC und Schwarz-Kriterium


13

Ich betreibe ein Logistikmodell. Der tatsächliche Modelldatensatz enthält mehr als 100 Variablen, aber ich wähle einen Testdatensatz aus, in dem sich etwa 25 Variablen befinden. Davor habe ich auch einen Datensatz mit 8-9 Variablen erstellt. Mir wurde gesagt, dass AIC- und SC-Werte verwendet werden können, um das Modell zu vergleichen. Ich beobachtete, dass das Modell höhere SC-Werte aufwies, selbst wenn die Variable niedrige p-Werte aufwies (z. B. 0053). Meiner Intuition nach sollte ein Modell mit Variablen mit gutem Signifikanzniveau zu niedrigen SC- und AIC-Werten führen. Das passiert aber nicht. Kann das bitte jemand klären. Kurz gesagt, ich möchte folgende Fragen stellen:

  1. Hat die Anzahl der Variablen etwas mit SC AIC zu tun?
  2. Sollte ich mich auf p-Werte oder niedrige SC AIC-Werte konzentrieren?
  3. Was sind die typischen Methoden zur Reduzierung der SC AIC-Werte?

Antworten:


15

Es ist ziemlich schwierig, Ihre Frage präzise zu beantworten, aber es scheint mir, dass Sie zwei Kriterien (Informationskriterien und p-Wert) vergleichen, die nicht die gleichen Informationen liefern. Für alle Informationskriterien (AIC- oder Schwarz-Kriterium) ist die Anpassung Ihres Modells (aus statistischer Sicht) umso besser, je kleiner sie sind, da sie einen Kompromiss zwischen der fehlenden Anpassung und der Anzahl der Parameter im Modell widerspiegeln ; Das Akaike-Kriterium lautet beispielsweise , wobei-2Log()+2kkist die Anzahl der Parameter. Im Gegensatz zu AIC ist SC jedoch konsistent: Die Wahrscheinlichkeit, ein größeres Modell falsch auszuwählen, konvergiert mit zunehmender Stichprobengröße gegen 0. Sie werden zum Vergleichen von Modellen verwendet. Sie können jedoch ein Modell mit signifikanten Prädiktoren beobachten, die eine schlechte Anpassung bieten (große Restabweichung). Wenn Sie mit einem niedrigeren AIC ein anderes Modell erzielen können, deutet dies auf ein schlechtes Modell hin. Und wenn Ihre Stichprobe groß ist, können die Werte immer noch niedrig sein, was nicht viel über die Modellanpassung aussagt. Überprüfen Sie zumindest, ob der AIC eine signifikante Abnahme aufweist, wenn Sie das Modell nur mit einem Achsenabschnitt und das Modell mit Kovariaten vergleichen. Wenn Sie jedoch Interesse daran haben, die beste Teilmenge von Prädiktoren zu finden, müssen Sie sich unbedingt die Methoden für die Variablenauswahl ansehen.p

Ich würde vorschlagen, die bestrafte Regression zu betrachten , die es ermöglicht, Variablen auszuwählen, um Überanpassungsprobleme zu vermeiden. (. P 207 ff.) Dies ist in Frank Harrell Regression Modellierungsstrategien diskutiert, oder Monde et al., Maximum - Likelihood - Schätzung sanktionierte direkt diagnostische und prognostische Vorhersagemodelle zur Überschätzung einstellen: ein klinisches Beispiel , J Clin Epid (2004) 57 ( 12).

Siehe auch den Entwurf ( lrm) und stepPlr ( step.plr) R - Pakete oder das bestrafte Paket. Sie können verwandte Fragen zur Variablenauswahl in dieser SE durchsuchen .


Hi chl, Danke für die Antwort. Ich gebe zu, dass ich einige Informationen aus Ihrer Antwort erhalten habe. Lassen Sie mich mein Verständnis äußern und dann können Sie bitte einen Kommentar abgeben. (1) Ich bekomme einen Hinweis, dass P-Werte sinken können, wenn Ihre Stichprobe groß ist ... - Ist das so? Nach meinem Verständnis können p-Werte nur zeigen, ob Ihre Nullhypothese zurückgewiesen wird oder nicht. (2) Ich verstehe jetzt, dass ich Unterschiede in den AIC-Werten nur mit Achsenabschnitt und mit Kovariaten sehen muss. Ich nehme an, wenn wir sagen, dass wir einen niedrigeren AIC wollen, meinen wir dies für denselben Datensatz. Ich bekomme Charakter Charakter in meinem Kommentar verlassen, so wird wieder kommentieren, sobald Sie bitte antworten,
Ayush Biyani

1
@ayush (1) Die Teststatistik (z. B. Wald) hängt von der Stichprobengröße ab (der Standardfehler nimmt mit zunehmender Stichprobengröße ab, und bei einer größeren Stichprobe werden Sie wahrscheinlich niedrigere p-Werte erhalten). (2) Ja, obwohl AIC verwendet werden kann, um nicht verschachtelte Modelle zu vergleichen, habe ich es hier als eine Möglichkeit betrachtet, verschiedene Modelle mit zunehmender Komplexität zu vergleichen.
Chl

Nochmals vielen Dank. Ich verstehe jetzt die Essenz des p-Werts. Etwa 5 Minuten zurück ließ ich ein Modell laufen, das mir p-Werte unterhalb von 0,05 für alle Variablen außer dem AIC von 28238,407 mit nur einem Achsenabschnitt und mit Kovariaten von 21507,933 angibt. Ich habe auch einen Fall, in dem AIC 16035.xy mit nur abfangen und mit Kovariaten 4234.xy ist. Was ist Ihre Meinung, wenn Sie zwei Fälle vergleichen? Bitte beachten Sie, dass das zweite Modell unterschiedliche Variablen 25 var hatte, während das erste 20 hatte. Das zweite Modell hatte jedoch mehr Variablen (25 im Vergleich zu 20) und einen niedrigeren AIC. Obwohl p-Werte für alle nicht .05 waren. Bitte empfehlen..mehr danach zu fragen..Danke.
Ayush Biyani

@ayush Es ist schwierig, Fragen zur Modellqualität zu beantworten, ohne zu wissen, wie Variablen ausgewählt wurden. Die Lücke in der AIC zwischen einem Modell, das nur einen Achsenabschnitt und einige Kovariaten enthält, gibt Ihnen einen Hinweis auf die "Erklärungskraft" dieser Prädiktoren (die verbleibende Abweichung scheint im zweiten Fall, den Sie gezeigt haben, stärker abzunehmen, und die AIC bestraft die # Parameter, wie ich in meiner Antwort gesagt habe). Es ist keineswegs eine vollständige Antwort auf die Relevanz dieser Prädiktoren. Ich empfehle Ihnen, eine spezifischere Frage (IMO) zu stellen, z. B. zur Variablenauswahl in GLMs für Ihre spezifische Studie.
Chl

8

Die Gruppierung von SC und AIC ist falsch . Es sind sehr unterschiedliche Dinge, obwohl die Leute sie stark missbrauchen. AIC ist sinnvoll, wenn Sie Dinge vorhersagen. Die Verwendung von SC in diesem Szenario kann (nicht immer) zu falschen Ergebnissen führen. In ähnlicher Weise ist SC besser, wenn Sie daran interessiert sind, eine Modellauswahl nach dem Prinzip der Sparsamkeit (Occam's Razor) vorzunehmen. Ich möchte nicht auf die theoretischen Details eingehen, sondern auf den Punkt bringen: SC - gut für sparsame Modelle, wenn Sie zur Erklärung Ihrer Daten ein möglichst einfaches Modell benötigen, AIC - wenn Sie Vorhersagen treffen möchten. AIC geht nicht davon aus, dass Ihr wahres Modell im Modellbereich liegt, in dem sich SC befindet.

Zweitens kann die gemeinsame Verwendung von p-Werten und Informationskriterien auch irreführend sein, wie dies durch chl erklärt wird .

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.