Ich bin mit dieser Literatur nicht so vertraut. Bitte verzeihen Sie mir, wenn dies eine offensichtliche Frage ist.
Da AIC und BIC von der Maximierung der Wahrscheinlichkeit abhängen, können sie anscheinend nur verwendet werden, um relative Vergleiche zwischen einer Reihe von Modellen anzustellen, die versuchen, zu einem bestimmten Datensatz zu passen. Nach meinem Verständnis wäre es nicht sinnvoll, den AIC für Modell A für Datensatz 1 zu berechnen, den AIC für Modell B für Datensatz 2 zu berechnen und dann die beiden AIC-Werte zu vergleichen und dies zu beurteilen (zum Beispiel). Modell A passt besser zu Datensatz 1 als Modell B zu Datensatz 2. Oder ich irre mich, und das ist eine vernünftige Sache. Lass es mich wissen, bitte.
Meine Frage lautet: Gibt es eine Modellanpassungsstatistik, die für absolute statt nur für relative Vergleiche verwendet werden kann? Für lineare Modelle würde so etwas wie funktionieren; Es hat einen definierten Bereich und disziplinspezifische Vorstellungen darüber, was ein "guter" Wert ist. Ich suche etwas allgemeineres und dachte, ich könnte damit beginnen, die Experten hier anzupingen. Ich bin mir sicher, dass jemand schon einmal darüber nachgedacht hat, aber ich kenne nicht die richtigen Begriffe, um eine produktive Suche in Google Scholar durchzuführen.
Jede Hilfe wäre dankbar.