MCMC und Datenerweiterung


8

Ich habe mir eine Frage zur MCMC-Datenerweiterung angesehen. Die allgemeine Form der Frage lautet wie folgt:

Angenommen, die in einem Prozess gesammelten Daten deuten auf und ein Prior für den Ratenparameter wird als . Die Daten werden in einer typischen Form aufgezeichnet und dargestellt (dh die Anzahl der Vorkommen jedes Werts für von bis ). Die gesammelten Daten unterscheiden jedoch nicht in Fällen, in denen (dh Alle Vorkommen mit und sind in einer Kategorie zusammengefasst.λ Exp ( λ 0 ) X i 0 n X i1 X i = 0 X.X.ichPois(λ)λExp(λ0)X.ich0nX.ich1X.ich=0X.ich=1

Angesichts der Daten, der Wahrscheinlichkeit und des oben beschriebenen Vorgängers stellt sich die Frage:

  • Die hintere Form von ,λ

  • Die Anzahl der Vorkommen, bei denen .X.ich=0

Ich bin mir nicht sicher, wie ich diese Frage beantworten soll, aber mir ist bewusst, dass Gibbs Sampling zur Datenerweiterung verwendet werden kann. Hat jemand Informationen darüber, wie dies getan werden könnte?

BEARBEITEN:

Ich sollte angeben, dass es hauptsächlich der zweite Teil (die Anzahl der Vorkommen, bei denen ) ist, bei dem ich mir nicht sicher bin. Für den ersten Teil (die hintere Form von ) habe ich angesichts der Wahrscheinlichkeit und des vorgeschlagenen Vorschlags argumentiert (obwohl ich froh bin, korrigiert zu werden):λX.ich=0λ

Gegeben:

π(λ|x)p(x|λ)×p(λ)

Also, für das oben angegebene Modell:

π(λ|x)=λi=1nxii=1nxi!enλ×λ0eλλ0

Ertrag vereinfachen:

π(λ|x)=λi=1nxii=1nxi!eλ(n+λ0)λ0

das ist proportional zu (und daher ist die hintere Form gegeben durch):

π(λ|x)λi=1nxieλ(n+λ0)λ0

Antworten:


5

Ihre Antwort berücksichtigt nicht die Tatsache, dass die Beobachtungen gleich Null und Eins zusammengeführt werden: Was Sie berechnet haben, ist der Posterior für die vollständigen Poisson-Daten und nicht für die aggregierten oder zusammengeführten Daten , .( X 1 , , X n )(X.1,,X.n)(X.1,,X.n)

Wenn wir die Konvention , dass die Fälle nehmen , wenn die Beobachtungs entsprechen oder und die Beobachtung bis , die Dichte des beobachteten Vektor ist (nach einiger Algebra und Faktorisierung) wobei die Anzahl von ist mal sind die gleich eins. Der letzte Term zwischen den Klammern oben ist die Wahrscheinlichkeit, bei einem Poisson-Draw 0 oder 1 zu erhalten.X i = 1 X i = 0 X i = k > 1 X i = k ( X 1 , , X n ) π ( λ | x 1 , , x n ) λ n i = 1 x i I (X.ich=1X.ich=1X.ich=0X.ich=k>1X.ich=k(X.1,,X.n) n1xi

π(λ|x1,,xn)λich=1nxichich(xich>1)exp{- -λ(λ0+n)}}×{1+λ}}n1
n1xich

Das ist also dein wahrer / beobachteter posterior. Von dort aus können Sie einen Gibbs-Sampler von implementieren

  1. Erzeugen der "fehlenden Beobachtungen" bei und der Beobachtungen, nämlich Simulation von , gegeben durch p ( x i | λ , x i = 1 ) P ( x i = 0 | λ , x i = 1 ) = 1 - P ( x i = 1 | λ , x i = 1 ) = 1λp(xich|λ,xich=1)
    P.(xich=0|λ,xich=1)=1- -P.(xich=1|λ,xich=1)=11+λ.
  2. Generieren von Berücksichtigung der "abgeschlossenen Daten", die sich auf wie Sie bereits berechnet haben.λ
    λ|x1,,xnG(ichxich+1,n+λ0)

(Wenn Sie weitere Einzelheiten wünschen, behandelt Beispiel 9.7, S. 346, in meinem Buch über statistische Monte-Carlo-Methoden mit George Casella genau diese Einstellung.)


2
(2) Jeder MCMC-Algorithmus kann mit beliebigen Werten beginnen, da die Markov-Kette wiederkehrend ist. Dies ist die Kernidee der Monte-Carlo-Methoden der Markov-Kette. Beachten Sie, dass ein Parameter des Prior ist: Es wird a priori ausgewählt und ändert sich nicht, sobald die Daten beobachtet werden. λ0
Xi'an

2
(3) Beachten Sie beim Abtasten aus der Gammaverteilung in Schritt 2 des Gibbs-Probenehmers, dass ich von den vollständigen Daten abhängig bin, die in Schritt 1 des Gibbs-Probenehmers erzeugt wurden. Ich "kenne" also jeden Wert der , auch diejenigen, für die . Bitte versuchen Sie, die Unterscheidung zwischen und zu verstehen. Dies ist die Grundidee hinter dem Prinzip der Datenerweiterung. xichxich=1xichxich
Xi'an

2
(1) Der Teil entspricht den gruppierten Beobachtungen. [{λ+1}}exp(- -λ)]]n1
Xi'an

2
(2) Dies ist eine bedingte Wahrscheinlichkeit (bitte versuchen Sie, selbst zu rechnen):P.(xich=0|λ,xich=1)=P.(xich=0,xich=1|λ)/.P.(xich=1|λ)=P.(xich=0|λ)/.P.(xich=1|λ)
Xi'an

2
(3) Gibbs-Abtastung funktioniert nach Bedingungen. In Schritt 2 bedingen wir also die in Schritt 1 simulierten (und in Schritt 1 das in Schritt 2 simulierte ). Dies bedeutet, dass diese bekannt sind (obwohl sie sich bei der nächsten Iteration ändern werden), ebenso wie die Summe. Sie müssen auf jeden Fall eine Einführung in Gibbs lesen, wenn Ihnen dieser grundlegende Punkt unklar bleibt ...xichλxich
Xi'an
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.