Auf P. 34 seiner PRNN Brian Ripley kommentiert: "Der AIC wurde von Akaike (1974) als 'An Information Criterion' bezeichnet, obwohl allgemein angenommen wird, dass der A für Akaike steht." Tatsächlich erklärt Akaike (1974, S. 719) dies bei der Einführung der AIC-Statistik
"IC stands for information criterion and A is added so that similar statistics, BIC, DIC
etc may follow".
In Anbetracht dieses Zitats als Vorhersage von 1974 ist es interessant festzustellen, dass in nur vier Jahren zwei Arten der BIC-Statistik (Bayesian IC) von Akaike (1977, 1978) und Schwarz (1978) vorgeschlagen wurden. Es dauerte Spiegelhalter et al. (2002) viel länger, um DIC (Deviance IC) zu entwickeln. Während das Auftreten des CIC-Kriteriums von Akaike (1974) nicht vorhergesagt wurde, wäre es naiv zu glauben, dass es niemals in Betracht gezogen wurde. Es wurde von Carlos C. Rodriguez im Jahr 2005 vorgeschlagen. (Beachten Sie, dass R. Tibshirani und K. Knights CIC (Covariance Inflation Criterion) eine andere Sache sind.)
Ich wusste, dass EIC (Empirical IC) um 2003 von Leuten der Monash University vorgeschlagen wurde. Ich habe gerade das Focused Information Criterion (FIC) entdeckt. Einige Bücher bezeichnen Hannan und Quinn IC als HIC (siehe z . B. dieses ). Ich weiß, dass es GIC (Generalized IC) geben sollte, und ich habe gerade das Information Investing Criterion (IIC) entdeckt. Es gibt NIC, TIC und mehr.
Ich denke, ich könnte möglicherweise den Rest des Alphabets abdecken, also frage ich nicht, wo die Sequenz AIC, BIC, CIC, DIC, EIC, FIC, GIC, HIC, IIC, ... aufhört oder welche Buchstaben des Alphabets haben nicht verwendet oder mindestens zweimal verwendet worden (z. B. kann das E in EIC für Extended oder Empirical stehen). Meine Frage ist einfacher und ich hoffe, dass sie praktischer ist. Kann ich diese Statistiken austauschbar verwenden und dabei die spezifischen Annahmen ignorieren, unter denen sie abgeleitet wurden, die spezifischen Situationen, in denen sie angewendet werden sollten, und so weiter?
Diese Frage ist zum Teil durch Burnham & Anderson (2001) motiviert, der schreibt:
...the comparison of AIC and BIC model selection ought to be based on their performance
properties such as mean square error for parameter estimation (includes prediction) and
confidence interval coverage: tapering effects or not, goodness-of-fit issues,
derivation of theory is irrelevant as it can be frequentist or Bayes.
Kapitel 7 der Monographie von Hyndman et al. Zur exponentiellen Glättung scheint den BA-Empfehlungen zu folgen, wenn untersucht wird, wie gut die fünf alternativen ICs (AIC, BIC, AICc, HQIC, LEIC) bei der Auswahl des Modells abschneiden, das die beste Prognose liefert (gemessen) durch eine neu vorgeschlagene Fehlermaßnahme (MASE), um zu dem Schluss zu gelangen, dass der AIC häufiger eine bessere Alternative war. (Der HQIC wurde nur einmal als bester Modellselektor gemeldet.)
Ich bin nicht sicher, welchen nützlichen Zweck die Forschungsübungen haben, die implizit alle ICc behandeln, als ob sie abgeleitet worden wären, um ein und dieselbe Frage unter äquivalenten Annahmen zu beantworten. Insbesondere bin ich mir nicht sicher, inwiefern es sinnvoll ist, die prädiktive Leistung des konsistenten Kriteriums zur Bestimmung der Ordnung einer Autoregression (das Hannan und Quinn für ergodische stationäre Sequenzen abgeleitet haben) im Kontext des nicht stationären Exponentials zu untersuchen Glättungsmodelle, die in der Monographie von Hyndman et al. Vermisse ich hier etwas?
Verweise:
Akaike, H. (1974), Ein neuer Blick auf die statistische Modellidentifikation , IEEE Transactions on Automatic Control 19 (6), 716-723.
Akaike, H. (1977), Über das Prinzip der Entropiemaximierung, in PR Krishnaiah, Hrsg., Applications of Statistics , Vol. 4, No. 27, Amsterdam: Nordholland, S. 27-41.
Akaike, H. (1978), Eine Bayes'sche Analyse des Minimum-AIC-Verfahrens, Annals of the Institute of Statistical Mathematics 30 (1), 9-14.
Burnham, KP & Anderson, DR (2001) Kullback-Leibler-Informationen als Grundlage für starke Schlussfolgerungen in ökologischen Studien, Wildlife Research 28, 111-119
Hyndman, RJ, Koehler, AB, Ord, JK und Snyder, RD Vorhersage mit exponentieller Glättung: der State-Space-Ansatz. New York: Springer, 2008
Ripley, BD- Mustererkennung und neuronale Netze . Cambridge: Cambridge University Press, 1996
Schwarz, G. (1978), Estimating the dimension of a model, Annals of Statistics 6 (2), 461-464.
Spiegelhalter, DJ, Best, NG, Carlin, BP und van der Linde, A. (2002), Bayes'sche Messungen der Modellkomplexität und t (mit Diskussion), Journal der Royal Statistical Society. Serie B (Statistical Methodology) 64 (4), 583-639.