Auf Seite 146 der Bayes'schen Datenanalyse von Gelman erläutert Gelman den Bayes'schen p-Wert, um die Anpassung des Modells zu überprüfen. Die Idee ist, die beobachteten Daten ( ) mit Daten zu vergleichen, die vom Modell generiert werden könnten, wenn wir das Experiment replizieren ( ).
Er definiert den Bayes'schen p-Wert als
Ich verstehe nicht ganz, warum es sinnvoll ist, dass die Teststatistik eine Funktion der Parameter . Wenn das Ziel darin besteht, "die beobachteten Daten mit Daten zu vergleichen, die vom Modell generiert werden könnten ", sollte der Vergleich dann nicht streng zwischen und ?
Auf derselben Seite bietet Gelman beispielsweise ein Beispiel, in dem er die Passform eines normalen Modells überprüft. Die Teststatistik lautet:
Dabei ist der Mittelwert des normalen Modells. Diese Teststatistik wurde entwickelt, um die Modellanpassung am äußersten Ende über die Statistik 6. und 61. Ordnung hinaus zu ignorieren.
Warum verwenden wir nicht stattdessen die folgende Teststatistik, die sich ausschließlich auf die Daten stützt?