MCMC-Algorithmen wie Metropolis-Hastings- und Gibbs-Sampling sind Methoden zum Sampling aus den gemeinsamen posterioren Verteilungen.
Ich denke, ich verstehe und kann Metropolen-Hasting ziemlich einfach implementieren - Sie wählen einfach irgendwie Startpunkte aus und gehen den Parameterraum nach dem Zufallsprinzip entlang, wobei Sie sich an der hinteren Dichte und der Vorschlagsdichte orientieren. Die Gibbs-Abtastung scheint sehr ähnlich, aber effizienter zu sein, da immer nur ein Parameter aktualisiert wird, während die anderen konstant bleiben und der Raum auf orthogonale Weise durchlaufen wird.
Dazu benötigen Sie die vollständige Bedingung für jeden Parameter in analytical from *. Aber woher kommen diese vollständigen Bedingungen? Um den Nenner zu erhalten, müssen Sie marginalisieren das Gelenk über . Das scheint eine Menge Arbeit zu sein, die analytisch zu erledigen ist, wenn es viele Parameter gibt, und die möglicherweise nicht nachvollziehbar ist, wenn die gemeinsame Verteilung nicht sehr "nett" ist. Mir ist klar, dass, wenn Sie die Konjugation im gesamten Modell verwenden, die vollständigen Bedingungen möglicherweise einfach sind, aber es muss einen besseren Weg für allgemeinere Situationen geben.
Alle Beispiele für Gibbs-Stichproben, die ich online gesehen habe, verwenden Spielzeugbeispiele (wie Stichproben aus einer multivariaten Normalen, bei denen die Bedingungen selbst nur Normalen sind) und scheinen diesem Problem auszuweichen.
* Oder benötigen Sie überhaupt die vollständigen Bedingungen in analytischer Form? Wie machen es Programme wie winBUGS?