Nach meinem Verständnis verfolgen Approximate Bayesian Computation (ABC) und Markov Chain Monte Carlo (MCMC) sehr ähnliche Ziele. Im Folgenden beschreibe ich mein Verständnis dieser Methoden und wie ich die Unterschiede in ihrer Anwendung auf reale Daten wahrnehme.
Ungefähre Bayes'sche Berechnung
ABC besteht darin, einen Parameter aus einer vorherigen, durch numerische Simulation berechneten Statistik x i abzutasten, die mit einigen beobachteten x o b s verglichen wird . Basierend auf einem Zurückweisungsalgorithmus wird x i entweder beibehalten oder zurückgewiesen. Die Liste der zurückbehaltenen x i s ergab die hintere Verteilung.
Markov-Kette Monte Carlo
MCMC besteht darin, eine vorherige Verteilung des Parameters thgr; abzutasten . Es nimmt eine erste Probe θ 1 , compute P ( x o b s | θ 1 ) P ( θ 1 ) , und dann springen (nach einiger Regel) auf einen neuen Wert θ 2 , für die P ( x o b s | θ 2 ) P ( θ 2 ) wird erneut berechnet. Das Verhältnis P ( x o b s wird berechnet undAbhängigkeit vongewissen Schwellenwert, der nächste Sprung von den ersten oder der zweiten Stellung auftreten. Die Erforschung vonθ-Werten geht eins und eins und am Ende ist die Verteilung der beibehaltenenθ-Werte die hintere VerteilungP(θ|x)(aus einem mir noch unbekannten Grund).
Mir ist klar, dass meine Erklärungen nicht die Vielfalt der Methoden widerspiegeln, die unter jedem dieser Begriffe existieren (insbesondere für MCMC).
ABC vs MCMC (Vor- und Nachteile)
ABC hat den Vorteil, dass man nicht analytisch lösen muss . Als solches ist ABC praktisch für komplexe Modelle, bei denen MCMC es nicht schaffen würde.
Mit MCMC können statistische Tests (Likelihood Ratio Test, G-Test, ...) durchgeführt werden, obwohl ich dies mit ABC nicht für machbar halte.
Habe ich soweit recht?
Frage
- Wie unterscheiden sich ABC und MCMC in ihren Anwendungen? Wie entscheidet man sich für die eine oder andere Methode?