Bayesianische Modellierung unter Verwendung multivariater Normalen mit Kovariaten


11

Angenommen, Sie haben eine erklärende Variable X=(X(s1),,X(sn)) wobei eine bestimmte Koordinate darstellt. Sie haben auch eine Antwortvariable . Jetzt können wir beide Variablen wie folgt kombinieren:sY=(Y(s1),,Y(sn))

W(s)=(X(s)Y(s))N(μ(s),T)

In diesem Fall wählen wir einfach und ist eine Kovarianzmatrix, die das beschreibt Beziehung zwischen und . Dies beschreibt nur den Wert von und bei . Da wir für und mehr Punkte von anderen Positionen haben , können wir weitere Werte von folgendermaßen beschreiben:μ(s)=(μ1μ2)TTXYXYsXYW(s)

(XY)=N((μ11μ21),TH(ϕ))

Sie werden feststellen, dass wir die Komponenten von und , um alle in einer Spalte zu erhalten, und danach alle miteinander verketten . Jede Komponente ist eine Korrelationsfunktion und ist wie oben. Der Grund, warum wir die Kovarianz ist, dass wir annehmen, dass es möglich ist, die Kovarianzmatrix als zu trennen .Y X ( s i ) Y ( s i ) H ( ϕ ) i j ρ ( s i , s j ) T T H ( ϕ ) C ( s , s ' ) = ρ ( s , s ' ) T.XYX(si)Y(si)H(ϕ)ijρ(si,sj)TTH(ϕ)C(s,s)=ρ(s,s)T

Frage 1: Wenn ich die Bedingung berechne, generiere ich tatsächlich eine Reihe von Werten von basierend auf , richtig? Ich habe bereits daher wäre ich mehr daran interessiert, einen neuen Punkt vorherzusagen . In diesem Fall sollte eine Matrix definiert sein als Y X Y y( s 0 ) H (ϕ)YXYXYy(s0)H(ϕ)

H(ϕ)=(H(ϕ)hhρ(0,ϕ))

in dem ein Vektor . Daher können wir einen Vektor konstruieren (ohne Umlagerung):ρ ( s 0 - s j ; ϕ )h(ϕ)ρ(s0sj;ϕ)

W=(W(s1),,W(sn),W(s0))TN(1n+1(μ1μ2),H(ϕ)T)

Und jetzt ordne ich mich einfach neu an, um eine gemeinsame Verteilung zu erhalten und erhalten Sie das bedingte .(Xx(s0)Yy(s0))p(y(s0)x0,X,Y)

Ist das richtig?

Frage 2: Zur Vorhersage zeigt das Papier, das ich lese, dass ich diese bedingte Verteilung und einen posterioren erhalten muss Verteilung , aber ich bin nicht sicher, wie ich die hintere Verteilung für die Parameter erhalten soll. Vielleicht könnte ich die Distribution , die ich denke ist genau das gleiche wie und verwende dann einfach den Satz von Bayes, ump(y(s0)x0,X,Y)p(μ,T,ϕx(s0),Y,X)(Xx(s0)Y)p(X,x(s0),Yμ,T,ϕ)p(μ,T,ϕX,x(s0),Y)p(X,x(s0),Yμ,T,ϕ)p(μ,T,ϕ)

Frage 3: Am Ende des Unterkapitels sagt der Autor Folgendes:

Zur Vorhersage haben wir nicht . Dies schafft keine neuen Probleme, da es als latente Variable behandelt und in Dies führt nur zu einer zusätzlichen Auslosung innerhalb jeder Gibbs-Iteration und ist eine triviale Ergänzung der Rechenaufgabe.X(s0)x

Was bedeutet dieser Absatz?

Dieses Verfahren finden Sie übrigens in diesem Dokument (Seite 8), aber wie Sie sehen können, brauche ich etwas mehr Details.

Vielen Dank!


Für die Migration pro OP-Anfrage gewählt .

Ich würde Ihre beiden Antworten auf Frage 1 und 2 als richtig bezeichnen . Frage 3 bedeutet, dass das nicht beobachtete als zusätzlicher Parameter zusätzlich zu unter Verwendung der vollständigen Bedingung wie vor . X(s0)μ,T,ϕ
p(x(s0)X,,Y,μ,T,ϕ)
X(s0)
Xi'an

Antworten:


2

Frage 1: Angesichts Ihres gemeinsamen Wahrscheinlichkeitsmodells die bedingte Verteilung von gegeben ist auch normal, mit Mittelwert und Varianz-Kovarianz-Matrix

(XY)N((μ11μ21),[Σ11Σ12Σ21Σ22])=N((μ11μ21),TH(ϕ))
YX
μ2+Σ21Σ111(Xμ1)
Σ22Σ21Σ111Σ21.
(Diese Formeln werden wörtlich von der Wikipedia-Seite über multivariate Normalen kopiert .) Gleiches gilt für seit ist ein weiterer Normalvektor.p(y(s0)x(s0),X,Y)(y(s0),x(s0),X,Y)

Frage 2: Das prädiktive ist definiert als dh durch Integrieren der Parameter unter Verwendung der posterioren Verteilung dieser Posterioren unter Berücksichtigung der aktuellen Daten . Die vollständige Antwort enthält also noch ein bisschen mehr. Wenn Sie nur aus der Vorhersage simulieren müssen, ist Ihre Vorstellung, gemeinsam aus zu simulieren und dann ist ab gültig.p(y(s0)x(s0),X,Y)

p(y(s0)|x(s0),X,Y)=p(y(s0)|x(s0),X,Y,μ,T,ϕ)p(μ,T,ϕ|x(s0),X,Y)dμdTdϕ,
(X,Y,x(s0))p(μ,T,ϕX,x(s0),Y)p(y(s0)x(s0),X,Y,μ,T,ϕ)

Frage 3: Falls nicht beobachtet wird, kann das Paar aus einem anderen prädiktiven vorhergesagt werden x(s0)(x(s0),y(s0))

p(x(s0),y(s0)X,Y)=p(x(s0),y(s0)X,Y,μ,T,ϕ)p(μ,T,ϕX,Y)dμdTdϕ.

Bei der Simulation mit dieser Vorhersage kann ein Gibbs-Sampler ausgeführt werden, der iterativ simuliert , da er nicht in überschaubarer Form verfügbar ist

  1. μX,Y,x(s0),y(s0),T,ϕ
  2. TX,Y,x(s0),y(s0),μ,ϕ
  3. ϕX,Y,x(s0),y(s0),T,μ
  4. x(s0)X,Y,y(s0),ϕ,T,μ
  5. y(s0)X,Y,x(s0),ϕ,T,μ

oder führen Sie die Schritte 4 und 5 zu einem einzigen Schritt zusammen

  • x(s0),y(s0)X,Y,ϕ,T,μ
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.