Ich lerne derzeit hierarchische Bayes'sche Modelle mit JAGS von R und Pymc mit Python ( "Bayes'sche Methoden für Hacker" ).
Ich kann mir einen Eindruck von diesem Beitrag verschaffen : "Sie werden am Ende einen Haufen Zahlen haben, der aussieht", als ob "Sie es irgendwie geschafft hätten, unabhängige Proben aus der komplizierten Verteilung zu entnehmen, über die Sie wissen wollten." Es ist so etwas wie ich die bedingte Wahrscheinlichkeit angeben kann, dann kann ich einen memorylosen Prozess basierend auf der bedingten Wahrscheinlichkeit erzeugen. Wenn ich den Prozess lange genug generiere, kann die gemeinsame Wahrscheinlichkeit konvergieren. Am Ende der generierten Sequenz kann ich einen Stapel Zahlen nehmen. Es ist so, als würde ich unabhängige Proben aus der komplizierten gemeinsamen Verteilung entnehmen. Zum Beispiel kann ich ein Histogramm erstellen und es kann die Verteilungsfunktion approximieren.
Dann ist mein Problem, muss ich beweisen, ob eine MCMC für ein bestimmtes Modell konvergiert? Ich bin motiviert, dies zu wissen, weil ich zuvor den EM-Algorithmus für GMM und LDA (grafische Modelle) gelernt habe. Wenn ich nur den MCMC-Algorithmus verwenden kann, ohne zu beweisen, ob er konvergiert, kann er viel mehr Zeit sparen als EM. Da muss ich die erwartete Log-Likelihood-Funktion berechnen (muss die hintere Wahrscheinlichkeit berechnen) und dann die erwartete Log-Wahrscheinlichkeit maximieren. Es ist anscheinend umständlicher als das MCMC (ich muss nur die bedingte Wahrscheinlichkeit formulieren).
Ich frage mich auch, ob die Wahrscheinlichkeitsfunktion und die vorherige Verteilung konjugiert sind. Bedeutet das, dass die MCMC konvergieren muss? Ich wundere mich über die Einschränkungen von MCMC und EM.