Um dies zu erreichen und die Sache zu vereinfachen, denke ich immer zuerst an nur einen Parameter mit gleichmäßiger (weitreichender) A-priori-Verteilung, so dass in diesem Fall die MAP-Schätzung des Parameters dieselbe ist wie die MLE . Nehmen Sie jedoch an, dass Ihre Wahrscheinlichkeitsfunktion kompliziert genug ist, um mehrere lokale Maxima zu haben.
In diesem Beispiel in 1-D untersucht MCMC die hintere Kurve, bis Werte mit maximaler Wahrscheinlichkeit gefunden werden. Wenn die Varianz zu kurz ist, bleiben Sie mit Sicherheit bei lokalen Maxima hängen, da Sie immer Werte in der Nähe abtasten: Der MCMC-Algorithmus "denkt", dass er in der Zielverteilung steckt. Wenn die Varianz jedoch zu groß ist, lehnen Sie Werte mehr oder weniger ab, sobald Sie andere Regionen mit maximaler Wahrscheinlichkeit finden, sobald Sie sich auf ein lokales Maximum festgelegt haben. Wenn Sie den Wert am MAP vorschlagen (oder einen ähnlichen Bereich mit lokaler maximaler Wahrscheinlichkeit, der größer als die anderen ist), lehnen Sie mit einer großen Varianz fast jeden anderen Wert ab: den Unterschied zwischen diesem Bereich und den anderen wird zu groß sein.
Natürlich wirkt sich all das auf die Konvergenzrate und nicht auf die Konvergenz "per se" Ihrer Ketten aus. Denken Sie daran, dass Ihre Kette unabhängig von der Varianz konvergiert, solange die Wahrscheinlichkeit, den Wert dieser globalen Maximalregion auszuwählen, positiv ist.
Um dieses Problem zu umgehen, kann man jedoch unterschiedliche Varianzen in einer Einbrennperiode für jeden Parameter vorschlagen und eine bestimmte Akzeptanzrate anstreben, die Ihren Anforderungen gerecht wird (z. B. , siehe Gelman, Roberts & Gilks, 1995 und Gelman, Gilks & Roberts, 1997 , um mehr über die Auswahl einer "guten" Akzeptanzrate zu erfahren, die natürlich von der Form Ihrer posterioren Verteilung abhängt. In diesem Fall ist die Kette natürlich nicht markovianisch, sodass Sie sie NICHT für Rückschlüsse verwenden müssen: Sie verwenden sie nur, um die Varianz anzupassen.0.44