Kann ich die Angebotsverteilung in MH MCMC nach dem Zufallsprinzip ändern, ohne dass dies Auswirkungen auf Markovianity hat?


14

Zufallsspaziergang Metropolis-Hasitings mit symmetrischem Vorschlag

q(x|y)=g(|yx|) hat die Eigenschaft, dass die Akzeptanzwahrscheinlichkeit

P(accept y)=min{1,f(y)/f(x)}

hängt nicht vom Vorschlag g() .

Bedeutet das, dass ich das g() in Abhängigkeit von der vorherigen Leistung der Kette ändern kann , ohne die Markovianität der Kette zu beeinträchtigen?

Von besonderem Interesse ist für mich die Anpassung der Skalierung des Normalvorschlags in Abhängigkeit von der Akzeptanzrate.

Würde mich auch sehr freuen, wenn jemand auf die in der Praxis verwendeten Anpassungsalgorithmen für diese Art von Problem hinweisen kann.

Danke vielmals.

[edit: Ausgehend von den Referenzen von robertsy und wok habe ich folgende Referenzen zu MH adaptiven Algorithmen gefunden:

Andrieu, Christophe und Éric Moulines. 2006.
Über die Ergodizitätseigenschaften einiger adaptiver MCMC-Algorithmen. The Annals of Applied Probability 16, No. 3: 1462 & ndash; 1505. http://www.jstor.org/stable/25442804 .

Andrieu, Christophe und Johannes Thoms.
2008. Ein Tutorial zum adaptiven MCMC. Statistik und Informatik 18, nr. 4 (12): 343 & ndash; 373. doi: 10.1007 / s11222-008-9110-y. http://www.springerlink.com/content/979087678366r78v/ .

Atchadé, Y., G. Fort, E. Moulines und P. Priouret. 2009.
Adaptive Markov-Kette Monte Carlo: Theorie und Methoden. Preprint.

Atchadé, Yves. 2010.
Begrenzen Sie die Theoreme für einige adaptive MCMC-Algorithmen mit subgeometrischen Kerneln. Bernoulli 16, nr. 1 (Februar): 116-154. doi: 10.3150 / 09-BEJ199. http://projecteuclid.org/DPubS?verb=Display&version=1.0&service=UI&handle=euclid.bj/1265984706&page=record .

Cappé, O., S. J. Godsill und E. Moulines. 2007.
Ein Überblick über bestehende Methoden und jüngste Fortschritte in der sequentiellen Monte Carlo. Verfahren des IEEE 95, Nr. 5: 899 & ndash; 924.

Giordani, Paolo. 2010.
Adaptive unabhängige Metropole-Hastings durch schnelle Schätzung von Gemischen von Normalen. Journal of Computational and Graphical Statistics 19, No. 2 (6): 243 & ndash; 259. doi: 10.1198 / jcgs.2009.07174. http://pubs.amstat.org/doi/abs/10.1198/jcgs.2009.07174 .

Latuszynski, Krzysztof, Gareth O Roberts und Jeffrey S. Rosenthal. 2011.
Adaptive Gibbs-Sampler und verwandte MCMC-Methoden. 1101,5838 (30. Januar). http://arxiv.org/abs/1101.5838 .

Pasarica, C. und A. Gelman. 2009.
Adaptives Skalieren des Metropolis-Algorithmus unter Verwendung der erwarteten quadratischen Sprungdistanz. Statistica Sinica.

Roberts, Gareth O. 2009.
Beispiele für adaptive MCMC. Journal of Computational and Graphical Statistics 18, No. 2 (6): 349 & ndash; 367. doi: 10.1198 / jcgs.2009.06134. http://pubs.amstat.org/doi/abs/10.1198/jcgs.2009.06134 .

]


Wieso hast du keinen Bonus von +100 von deinem SO-Rekord?

@mbq, wahrscheinlich, weil ich diesen Account vor langer Zeit erstellt habe, als ich ebenfalls 0 unter OS war ... schade, 100 unter CW sieht nach einer großen Sache aus, da du ein echter Kerl sein musst, um hier Antworten zu geben :)
VitoshKa

Sie können den Bonus erhalten, indem Sie alle Zuordnungen aufheben und dann die Konten erneut zuordnen.
Wok

Antworten:


7

Ich denke, dass dieses Papier von Heikki Haario et al. gibt Ihnen die Antwort, die Sie brauchen. Die Markovianität der Kette wird durch die Anpassung der Vorschlagsdichte beeinflusst, da dann ein neuer Vorschlagswert nicht nur vom vorherigen, sondern von der gesamten Kette abhängt. Aber es scheint, dass die Sequenz immer noch die guten Eigenschaften hat, wenn sehr sorgfältig vorgegangen wird.


danke robertsy, für gute referenz. in der Tat ist der Prozess nicht Markov. Auch wenn die Akzeptanzwahrscheinlichkeit unabhängig von der Vergangenheit ist, ist der Übergangskern des Prozesses eine Funktion der Vorschlagsdichte und somit von der gesamten Kette abhängig.
VitoshKa

3

Sie können die Akzeptanzrate durch verzögerte Zurückweisung verbessern, wie in Tierney, Mira (1999) beschrieben . Es basiert auf einer zweiten Vorschlagsfunktion und einer zweiten Akzeptanzwahrscheinlichkeit , die garantiert, dass die Markov-Kette bei gleicher invarianter Verteilung immer noch reversibel ist: Sie müssen vorsichtig sein, da " es einfach ist, adaptive Methoden zu konstruieren, die funktionieren könnten, aber tatsächlich funktionieren Probe aus der falschen Distribution ".


3

Die von den Anwendern Wok und Robertsy vorgeschlagenen Ansätze decken die am häufigsten zitierten Beispiele für das ab, wonach Sie suchen, von dem ich weiß. Um diese Antworten zu vertiefen, haben Haario und Mira 2006 einen Artikel verfasst, in dem die beiden Ansätze kombiniert werden. Diesen Ansatz nennen sie DRAM (Delayed Rejection Adaptive Metropolis) .

Andrieu hat eine nette Behandlung verschiedener adaptiver MCMC-Ansätze (pdf), die Haario 2001 behandelt, aber auch verschiedene Alternativen diskutiert, die in den letzten Jahren vorgeschlagen wurden.


1

Dies ist ein bisschen schamloser Pfropfen einer Veröffentlichung von mir, aber genau das tun wir in dieser Arbeit ( arxiv ). Unter anderem schlagen wir vor, die Varianz der Exponentialverteilung anzupassen, um die Akzeptanz zu verbessern (Schritt S3.2 im Algorithmus in der Veröffentlichung).

In unserem Fall ändert die Anpassung asymptotisch nichts an der Angebotsverteilung (im Artikel steht, wann f1). Somit ist der Prozess asymptotisch immer noch markovianisch im selben Sinne wie der Wang-Landau-Algorithmus . Wir verifizieren numerisch, dass der Prozess ergodisch ist und die Kettenproben aus der von uns gewählten Zielverteilung stammen (z. B. linke untere Tafel in Abb. 4).

Wir verwenden keine Informationen zur Akzeptanzrate, erhalten jedoch eine Akzeptanz unabhängig von der Menge, an der wir interessiert sind (entspricht der Energie eines Spinsystems, rechts unten in Abb. 4).

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.