Als «gibbs» getaggte Fragen

Der Gibbs-Sampler ist eine einfache Form der Markov-Ketten-Monte-Carlo-Simulation, die in der Bayes'schen Statistik weit verbreitet ist und auf Stichproben aus vollständigen bedingten Verteilungen für jede Variable oder Gruppe von Variablen basiert. Der Name stammt von der Methode, die erstmals von Giban und Geman (1984) für die Gibbs-Zufallsfeldmodellierung von Bildern verwendet wurde.

4
OpenBugs vs. JAGS
Ich werde eine Umgebung im BUGS-Stil ausprobieren, um Bayes'sche Modelle zu schätzen. Gibt es wichtige Vorteile bei der Auswahl zwischen OpenBugs oder JAGS? Wird das eine in absehbarer Zeit das andere ersetzen? Ich werde den ausgewählten Gibbs-Sampler mit R verwenden. Ich habe noch keine spezifische Anwendung, sondern entscheide, welche ich …
41 r  software  bugs  jags  gibbs 

1
Was ist der Unterschied zwischen Metropolis Hastings, Gibbs, Importance und Rejection Sampling?
Ich habe versucht, MCMC-Methoden zu erlernen und bin auf Stichproben von Metropolis Hastings, Gibbs, Wichtigkeit und Ablehnung gestoßen. Während einige dieser Unterschiede offensichtlich sind, dh wie Gibbs ein Sonderfall von Metropolis Hastings ist, wenn wir die vollständigen Bedingungen haben, sind die anderen weniger offensichtlich, wenn wir MH in einem Gibbs-Sampler …

3
Eine gute Gibbs-Sampling-Tutorials und Referenzen
Ich möchte lernen, wie Gibbs Sampling funktioniert, und suche nach einem guten Basis- bis Zwischenpapier. Ich habe einen Informatikhintergrund und grundlegende statistische Kenntnisse. Hat jemand gutes Material gelesen? wo hast du es gelernt? Vielen Dank
29 references  gibbs 

1
Was sind einige bekannte Verbesserungen gegenüber Lehrbuch-MCMC-Algorithmen, die Menschen für die Bayes'sche Inferenz verwenden?
Wenn ich eine Monte-Carlo-Simulation für ein Problem programmiere und das Modell einfach genug ist, verwende ich ein sehr einfaches Gibbs-Sampling-Lehrbuch. Wenn es nicht möglich ist, Gibbs-Sampling zu verwenden, codiere ich das Lehrbuch Metropolis-Hastings, das ich vor Jahren gelernt habe. Der einzige Gedanke, den ich mir überlege, ist die Auswahl der …

2
Gibbs-Stichprobe gegen allgemeine MH-MCMC
Ich habe gerade etwas über Gibbs Sampling und Metropolis Hastings Algorithmus gelesen und habe ein paar Fragen. Soweit ich weiß, wird bei einer Gibbs-Stichprobe, wenn wir ein großes multivariates Problem haben, von der bedingten Verteilung abgetastet, dh eine Variable abgetastet, während alle anderen festgehalten werden, während in MH von der …

1
Wann würde man Gibbs-Sampling anstelle von Metropolis-Hastings verwenden?
Es gibt verschiedene Arten von MCMC-Algorithmen: Metropolis-Hastings Gibbs Stichprobe von Bedeutung / Ablehnung (in Verbindung stehend). Warum sollte man Gibbs-Sampling anstelle von Metropolis-Hastings verwenden? Ich vermute, dass es Fälle gibt, in denen Rückschlüsse mit Gibbs-Stichproben besser möglich sind als mit Metropolis-Hastings, aber die Einzelheiten sind mir nicht klar.

1
Gewährleistet der Gibbs-Sampling-Algorithmus einen detaillierten Abgleich?
Ich habe die höchste Autorität 1, dass das Gibbs-Sampling ein Sonderfall des Metropolis-Hastings-Algorithmus für das Markov-Chain-Monte-Carlo-Sampling ist. Der MH-Algorithmus gibt immer eine Übergangswahrscheinlichkeit mit der detaillierten Balance-Eigenschaft an. Ich erwarte, dass Gibbs es auch sollte. Also, wo im folgenden einfachen Fall habe ich mich geirrt? Für die Zielverteilung auf zwei …
17 mcmc  gibbs 

1
Stan versus Gelman-Rubin Definition
Ich habe die Stan-Dokumentation durchgesehen, die hier heruntergeladen werden kann . Besonders interessiert hat mich die Implementierung der Gelman-Rubin-Diagnostik. Das Originalpapier Gelman & Rubin (1992) definiert den potenziellen Skalenreduktionsfaktor (PSRF) wie folgt: Sei die te Markov-Kette, und es seien insgesamt unabhängige Ketten abgetastet. Sei der Mittelwert aus der ten Kette …

2
Woher kommen die vollständigen Bedingungen bei der Gibbs-Probenahme?
MCMC-Algorithmen wie Metropolis-Hastings- und Gibbs-Sampling sind Methoden zum Sampling aus den gemeinsamen posterioren Verteilungen. Ich denke, ich verstehe und kann Metropolen-Hasting ziemlich einfach implementieren - Sie wählen einfach irgendwie Startpunkte aus und gehen den Parameterraum nach dem Zufallsprinzip entlang, wobei Sie sich an der hinteren Dichte und der Vorschlagsdichte orientieren. …
15 bayesian  mcmc  gibbs 

1
Grenzwahrscheinlichkeit aus der Gibbs-Ausgabe
Ich reproduziere die Ergebnisse in Abschnitt 4.2.1 von Grund auf Grenzwahrscheinlichkeit aus der Gibbs-Ausgabe Siddhartha Chib Journal of the American Statistical Association, Bd. 90, Nr. 432 (Dez. 1995), S. 1313-1321. Es ist eine Mischung aus Normalmodellen mit einer bekannten Anzahl von Komponenten. k ≥ 1k≥1k\geq 1f( x ≤ w , …

1
Warum beschleunigt die redundante mittlere Parametrisierung Gibbs MCMC?
In dem Buch von Gelman & Hill (2007) (Datenanalyse unter Verwendung von Regression und mehrstufigen / hierarchischen Modellen) behaupten die Autoren, dass die Einbeziehung redundanter mittlerer Parameter zur Beschleunigung der MCMC beitragen kann. Das gegebene Beispiel ist ein nicht verschachteltes Modell des "Flugsimulators" (Gl. 13.9): yiγjδk∼N(μ+γj[i]+δk[i],σ2y)∼N(0,σ2γ)∼N(0,σ2δ)yi∼N(μ+γj[i]+δk[i],σy2)γj∼N(0,σγ2)δk∼N(0,σδ2) \begin{align} y_i &\sim N(\mu …

2
Ist Gibbs Sampling eine MCMC-Methode?
Soweit ich es verstehe, ist es das (zumindest definiert Wikipedia es so ). Aber ich habe diese Aussage von Efron * gefunden (Hervorhebung hinzugefügt): Die Markov-Kette Monte Carlo (MCMC) ist die große Erfolgsgeschichte der modernen Bayes'schen Statistik. MCMC und seine Schwestermethode „Gibbs Sampling“ ermöglichen die numerische Berechnung der posterioren Verteilungen …
11 mcmc  gibbs 


1
Wie leitet man Gibbs-Sampling ab?
Ich zögere tatsächlich, dies zu fragen, weil ich befürchte, dass ich auf andere Fragen oder Wikipedia zu Gibbs-Stichproben verwiesen werde, aber ich habe nicht das Gefühl, dass sie beschreiben, was zur Hand ist. Bei einer bedingten Wahrscheinlichkeit p(x|y)p(x|y)p(x|y) : p(x|y)x=x0x=x1y=y01434y=y12646p(x|y)y=y0y=y1x=x01426x=x13446 \begin{array}{c|c|c} p(x|y) & y = y_0 & y = y_1 …
11 sampling  mcmc  gibbs 

1
Bayesianische Modellierung unter Verwendung multivariater Normalen mit Kovariaten
Angenommen, Sie haben eine erklärende Variable X=(X(s1),…,X(sn))X=(X(s1),…,X(sn)){\bf{X}} = \left(X(s_{1}),\ldots,X(s_{n})\right) wobei eine bestimmte Koordinate darstellt. Sie haben auch eine Antwortvariable . Jetzt können wir beide Variablen wie folgt kombinieren:sssY=(Y(s1),…,Y(sn))Y=(Y(s1),…,Y(sn)){\bf{Y}} = \left(Y(s_{1}),\ldots,Y(s_{n})\right) W(s)=(X(s)Y(s))∼N(μ(s),T)W(s)=(X(s)Y(s))∼N(μ(s),T){\bf{W}}({\bf{s}}) = \left( \begin{array}{ccc}X(s) \\ Y(s) \end{array} \right) \sim N(\boldsymbol{\mu}(s), T) In diesem Fall wählen wir einfach und ist eine …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.