Als «mcmc» getaggte Fragen

Markov-Kette Monte Carlo (MCMC) bezieht sich auf eine Klasse von Methoden zum Erzeugen von Proben aus einer Zielverteilung durch Erzeugen von Zufallszahlen aus einer Markov-Kette, deren stationäre Verteilung die Zielverteilung ist. MCMC-Methoden werden typischerweise verwendet, wenn direktere Methoden zur Zufallszahlengenerierung (z. B. Inversionsmethode) nicht durchführbar sind. Die erste MCMC-Methode war der Metropolis-Algorithmus, der später zum Metropolis-Hastings-Algorithmus modifiziert wurde.

1
So erhalten Sie multivariate glaubwürdige Intervallschätzungen / Regionen mit der höchsten Dichte (HDR) nach MCMC
Ich schätze 15 Parameter meines Modells unter Verwendung eines Bayes'schen Ansatzes und einer Markov-Ketten-Monte-Carlo-Methode (MCMC). Meine Daten nach dem Ausführen einer MCMC-Kette von 100000 Proben sind daher eine 100000 × 15-Tabelle mit Parameterwerten. Ich möchte 15-dimensionale Regionen mit der höchsten Dichte meiner posterioren Verteilung finden. Mein Problem: Das Clustering der …

1
Verwendung empirischer Prioritäten in PyMC
Ich verwende PyMC, um die posteriore Verteilung abzutasten, und bin auf eine Straßensperre gestoßen, bei der Priors aus Samples verwendet werden, keine Modelle. Meine Situation ist wie folgt: Ich habe einige empirische Daten für einen Parameter aus dem ich eine Wahrscheinlichkeitsverteilung p (z) berechne . Es ist kein Modell / …

1
Welcher adaptive Metropolis Hastings-Algorithmus ist im R-Paket MHadaptive implementiert?
Es gibt mehrere Versionen adaptiver Metropolis Hastings-Algorithmen. Eine ist in der Funktion Metro_Hastingsdes RPakets implementiert MHadaptive, siehe hier . Die dort aufgeführte Referenz, Spiegelhalter et al. (2002) enthält meines Erachtens leider keine Beschreibung eines adaptiven Algorithmus. Der Metro_HastingsAlgorithmus funktioniert jedoch sehr gut bei der Abtastung aus der posterioren Verteilung des …

2
Akzeptanzrate für Metropolis-Hastings> 0,5
Wie kommt es, dass Metropolis-Hastings-Akzeptanzraten nahe 1 liegen (z. B. wenn eine unimodale Verteilung mit einer normalen Angebotsverteilung mit zu kleiner SD untersucht wird), nachdem das Einbrennen beendet ist? Ich sehe es in meinen eigenen MCMC-Ketten, aber ich verstehe nicht, wie es Sinn macht. Es scheint mir, dass sich die …


1
Ungefährer Metropolis-Algorithmus - macht das Sinn?
Vor einiger Zeit fragte Xi'an, was das Äquivalent für cdfs von MCMC für pdfs ist. Die naive Antwort wäre, den "ungefähren" Metropolis-Algorithmus in Form zu verwenden Gegeben 1. Erzeuge 2. nimmX(t)=x(t)X(t)=x(t)X^{(t)} = x^{(t)}Y∼q(y|x(t))Y∼q(y|x(t))Y \sim q(y|x^{(t)})X(t+1)={Yx(t) with probability otherwise.min(F(Y+ε)−F(Y−ε)F(x(t)+ε)−F(x(t)−ε),1)X(t+1)={Y with probability min(F(Y+ε)−F(Y−ε)F(x(t)+ε)−F(x(t)−ε),1)x(t) otherwise. X^{(t+1)} = \begin{cases} Y & \text{ with probability …

1
Was verursacht Autokorrelation im MCMC-Sampler?
Bei der Durchführung einer Bayes'schen Analyse ist die Autokorrelation der MCMC-Proben zu überprüfen. Aber ich verstehe nicht, was diese Autokorrelation verursacht. Hier sagen sie das Proben mit hoher Autokorrelation [von MCMC] werden häufig durch starke Korrelationen zwischen Variablen verursacht. Ich frage mich, was andere Ursachen für Proben mit hoher Autokorrelation …

3
Warum erfolgt die Probenahme aus der posterioren prädiktiven Verteilung?
In einem Bayes'schen Modell wird die posteriore Vorhersageverteilung normalerweise wie folgt geschrieben: p (xn e w∣x1, …xn) =∫∞- ∞p (xn e w∣ μ ) p ( μ ∣ x1, …xn) dμp(xnew∣x1,…xn)=∫- -∞∞p(xnew∣μ) p(μ∣x1,…xn)dμ p(x_{new} \mid x_1, \ldots x_n) = \int_{-\infty}^{\infty} p(x_{new}\mid \mu) \ p(\mu \mid x_1, \ldots x_n)d\mu für einen …
7 bayesian  mcmc  gibbs 
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.