Eine Stichprobe von einem nicht geeigneten posterioren (Dichte) ist aus probabilistischer / theoretischer Sicht nicht sinnvoll. Der Grund dafür ist, dass die Funktion f kein endliches Integral über dem Parameterraum hat und folglich nicht mit einem (endlichen Maß) Wahrscheinlichkeitsmodell ( Ω , σ , P ) (Raum, Sigma-Algebra, Wahrscheinlichkeitsmaß ) verknüpft werden kann ).ff( Ω , σ, P )
Wenn Sie ein Modell mit einem nicht korrekten Vorgänger haben, der zu einem nicht korrekten Nachfolger führt, können Sie in vielen Fällen immer noch mit MCMC, z. B. Metropolis-Hastings, davon eine Stichprobe erstellen, und die "Nachfolger-Stichproben" sehen möglicherweise vernünftig aus. Das sieht auf den ersten Blick faszinierend und paradox aus. Der Grund dafür ist jedoch, dass MCMC-Methoden auf numerische Beschränkungen der Computer in der Praxis beschränkt sind und daher alle Unterstützungen für einen Computer beschränkt (und diskret!) Sind. Dann ist unter diesen Einschränkungen (Beschränktheit und Diskriminanz) der hintere Teil in den meisten Fällen tatsächlich in Ordnung.
Es gibt eine großartige Referenz von Hobert und Casella, die ein (etwas anderes) Beispiel darstellt, in dem Sie einen Gibbs-Sampler für einen posterior konstruieren können. Die posterioren Samples sehen vollkommen vernünftig aus, aber der posterior ist unpassend!
http://www.jstor.org/stable/2291572
Ein ähnliches Beispiel ist kürzlich hier erschienen . Tatsächlich warnen Hobert und Casella den Leser, dass MCMC-Methoden nicht zum Erkennen von Unzulänglichkeiten des Seitenzahns verwendet werden können und dass dies separat überprüft werden muss, bevor MCMC-Methoden implementiert werden. In Summe:
- Einige MCMC-Sampler, wie Metropolis-Hastings, können (sollten aber nicht) verwendet werden, um von einem nicht geeigneten posterioren Sample zu sampeln, da der Computer den Parameterraum begrenzt und diskretisiert. Nur wenn Sie große Proben haben, können Sie möglicherweise einige seltsame Dinge beobachten. Wie gut Sie diese Probleme erkennen können, hängt auch von der "instrumentellen" Verteilung Ihres Samplers ab. Der letztere Punkt erfordert eine ausführlichere Diskussion, daher möchte ich ihn hier belassen.
- (Hobert und Casella). Die Tatsache, dass Sie einen Gibbs-Sampler (bedingtes Modell) für ein Modell mit einem falschen Vorgänger konstruieren können, bedeutet nicht, dass das hintere Modell (Gelenkmodell) korrekt ist.
- Eine formale probabilistische Interpretation der posterioren Stichproben erfordert die Angemessenheit des posterioren. Konvergenzergebnisse und -nachweise werden nur für geeignete Wahrscheinlichkeitsverteilungen / -maße erstellt.
PS (ein bisschen frech): Glauben Sie nicht immer, was die Leute beim maschinellen Lernen machen. Wie Prof. Brian Ripley sagte: "Maschinelles Lernen ist Statistik abzüglich jeglicher Überprüfung von Modellen und Annahmen".