Hintergrund: Ich arbeite gerade daran, verschiedene Bayesianische Hierarchiemodelle zu vergleichen. Die Daten sind numerische Maße für das Wohlbefinden des Teilnehmers i und die Zeit j . Ich habe ungefähr 1000 Teilnehmer und 5 bis 10 Beobachtungen pro Teilnehmer.
Wie bei den meisten longitudinalen Datensätzen erwarte ich eine Form der Autokorrelation, bei der zeitlich engere Beobachtungen eine größere Korrelation aufweisen als weiter entfernte. Um einige Dinge zu vereinfachen, lautet das Grundmodell wie folgt:
Wo ich ein No-Lag-Modell vergleiche:
mit einem Lag-Modell:
Dabei ist ein Mittelwert auf Personenebene und β 1 der Verzögerungsparameter (dh der Verzögerungseffekt addiert ein Vielfaches der Abweichung der Beobachtung vom vorherigen Zeitpunkt vom vorhergesagten Wert dieses Zeitpunkts). Ich musste auch ein paar Dinge tun, um y i 0 zu schätzen (dh Beobachtung vor der ersten Beobachtung).
Die Ergebnisse, die ich erhalte, zeigen an, dass:
- Der Lag-Parameter liegt bei 0,18, 95% CI [.14, .21]. Dh es ist nicht Null
- Die mittlere Abweichung und der DIC erhöhen sich beide um mehrere Hundert, wenn die Verzögerung in das Modell einbezogen wird
- Posterior Predictive Checks zeigen, dass das Modell durch Einbeziehung des Lag-Effekts die Autokorrelation in den Daten besser wiederherstellen kann
Zusammenfassend lässt sich also sagen, dass der Nicht-Null-Verzögerungsparameter und die nachträglichen Vorhersageprüfungen darauf hindeuten, dass das Verzögerungsmodell besser ist. Mittlere Abweichung und DIC lassen vermuten, dass das No-Lag-Modell besser ist. Das verwirrt mich.
Nach meiner allgemeinen Erfahrung sollte durch Hinzufügen eines nützlichen Parameters zumindest die mittlere Abweichung verringert werden (auch wenn die DIC nach einer Komplexitätsstrafe nicht verbessert wird). Darüber hinaus würde ein Wert von Null für den Verzögerungsparameter die gleiche Abweichung wie das No-Lag-Modell erzielen.
Frage
Warum kann das Hinzufügen eines Verzögerungseffekts die mittlere Abweichung in einem Bayes'schen hierarchischen Modell erhöhen, selbst wenn der Verzögerungsparameter ungleich Null ist und die prädiktiven Prüfungen nach hinten verbessert werden?
Erste Gedanken
- Ich habe viele Konvergenzprüfungen durchgeführt (z. B. Traceplots untersucht; Abweichungen in den Abweichungsergebnissen über Ketten und Läufe hinweg untersucht), und beide Modelle scheinen auf der Rückseite zusammenzulaufen.
- Ich habe eine Codeüberprüfung durchgeführt, bei der der Verzögerungseffekt auf Null gesetzt wurde. Dadurch wurden die Abweichungen des No-Lag-Modells behoben.
- Ich betrachtete auch die mittlere Abweichung abzüglich der Strafe, die eine Abweichung bei den erwarteten Werten ergeben sollte, und dies ließ auch das Verzögerungsmodell schlechter erscheinen.
- Vielleicht gibt es ein Problem damit, wie ich den impliziten Zeitpunkt vor der ersten Beobachtung geschätzt habe.
- Möglicherweise ist der Verzögerungseffekt in diesen Daten nur schwach
- Ich habe versucht, das Modell unter Verwendung eines Maximums der Wahrscheinlichkeit unter Verwendung von
lme
mit zu schätzencorrelation=corAR1()
. Die Schätzung des Lag-Parameters war sehr ähnlich. In diesem Fall hatte das Verzögerungsmodell eine größere logarithmische Wahrscheinlichkeit und einen kleineren AIC (um etwa 100) als eines ohne Verzögerung (dh es deutete darauf hin, dass das Verzögerungsmodell besser war). Dies bestätigte die Idee, dass das Hinzufügen der Verzögerung auch die Abweichung im Bayes'schen Modell verringern sollte. - Vielleicht haben bayesianische Residuen etwas Besonderes. Wenn das Verzögerungsmodell die Differenz zwischen vorhergesagtem und tatsächlichem y zum vorherigen Zeitpunkt verwendet, ist diese Größe ungewiss. Somit wird der Verzögerungseffekt über ein glaubwürdiges Intervall solcher Restwerte wirksam.