Als «mcmc» getaggte Fragen

Markov-Kette Monte Carlo (MCMC) bezieht sich auf eine Klasse von Methoden zum Erzeugen von Proben aus einer Zielverteilung durch Erzeugen von Zufallszahlen aus einer Markov-Kette, deren stationäre Verteilung die Zielverteilung ist. MCMC-Methoden werden typischerweise verwendet, wenn direktere Methoden zur Zufallszahlengenerierung (z. B. Inversionsmethode) nicht durchführbar sind. Die erste MCMC-Methode war der Metropolis-Algorithmus, der später zum Metropolis-Hastings-Algorithmus modifiziert wurde.

1
Wie kann ich die Recheneffizienz optimieren, wenn ich ein komplexes Modell wiederholt an einen großen Datensatz anpasse?
Ich habe Leistungsprobleme mit dem MCMCglmmPaket in R, um ein Modell mit gemischten Effekten auszuführen. Der Code sieht folgendermaßen aus: MC1<-MCMCglmm(bull~1,random=~school,data=dt,family="categorical" , prior=list(R=list(V=1,fix=1), G=list(G1=list(V=1, nu=0))) , slice=T, nitt=iter, ,burnin=burn, verbose=F) Die Daten enthalten rund 20.000 Beobachtungen, die in rund 200 Schulen zusammengefasst sind. Ich habe alle nicht verwendeten Variablen aus …

2
MCMC konvergiert auf einen einzigen Wert?
Ich versuche, ein hierarchisches Modell mit jags und dem Paket rjags anzupassen. Meine Ergebnisvariable ist y, eine Folge von Bernoulli-Versuchen. Ich habe 38 menschliche Probanden, die in zwei Kategorien auftreten: P und M. Nach meiner Analyse hat jeder Sprecher eine Erfolgswahrscheinlichkeit in der Kategorie P von und eine Erfolgswahrscheinlichkeit in …

2
MCMC-Methoden - Proben brennen?
Bei MCMC- Methoden lese ich immer wieder über die burn-inZeit oder die Anzahl der Proben "burn". Was ist das genau und warum wird es benötigt? Aktualisieren: Bleibt MCMC stabil, sobald es sich stabilisiert hat? Wie hängt der Zeitbegriff burn-inmit dem der Mischzeit zusammen?
12 sampling  mcmc 


2
Die Maximum-Likelihood-Parameter weichen von den posterioren Verteilungen ab
Ich habe eine Wahrscheinlichkeitsfunktion für die Wahrscheinlichkeit meiner Daten bei einigen Modellparametern , die ich schätzen möchte. Unter der Annahme flacher Prioritäten für die Parameter ist die Wahrscheinlichkeit proportional zur posterioren Wahrscheinlichkeit. Ich benutze eine MCMC-Methode, um diese Wahrscheinlichkeit abzutasten.L(d|θ)L(d|θ)\mathcal{L}(d | \theta)dddθ∈RNθ∈RN\theta \in \mathbf{R}^N Wenn ich mir die resultierende konvergierte …

2
Ist Gibbs Sampling eine MCMC-Methode?
Soweit ich es verstehe, ist es das (zumindest definiert Wikipedia es so ). Aber ich habe diese Aussage von Efron * gefunden (Hervorhebung hinzugefügt): Die Markov-Kette Monte Carlo (MCMC) ist die große Erfolgsgeschichte der modernen Bayes'schen Statistik. MCMC und seine Schwestermethode „Gibbs Sampling“ ermöglichen die numerische Berechnung der posterioren Verteilungen …
11 mcmc  gibbs 



1
Wie leitet man Gibbs-Sampling ab?
Ich zögere tatsächlich, dies zu fragen, weil ich befürchte, dass ich auf andere Fragen oder Wikipedia zu Gibbs-Stichproben verwiesen werde, aber ich habe nicht das Gefühl, dass sie beschreiben, was zur Hand ist. Bei einer bedingten Wahrscheinlichkeit p(x|y)p(x|y)p(x|y) : p(x|y)x=x0x=x1y=y01434y=y12646p(x|y)y=y0y=y1x=x01426x=x13446 \begin{array}{c|c|c} p(x|y) & y = y_0 & y = y_1 …
11 sampling  mcmc  gibbs 

1
Gibbs-Stichprobe für das Ising-Modell
Hausaufgabenfrage: Betrachten Sie das 1-d-Ising-Modell. Let x=(x1,...xd)x=(x1,...xd)x = (x_1,...x_d) . xixix_i ist entweder -1 oder +1 π(x)∝e∑39i=1xixi+1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} Entwerfen Sie einen Gibbs-Abtastalgorithmus, um Abtastwerte ungefähr aus der Zielverteilung zu generieren.π(x)π(x)\pi(x) . Mein Versuch: Wählen Sie zufällig Werte (entweder -1 oder 1), um den Vektor zu füllen . Also vielleicht …


5
Reduziert die Standardisierung unabhängiger Variablen die Kollinearität?
Ich habe einen sehr guten Text über Bayes / MCMC gefunden. Die IT schlägt vor, dass eine Standardisierung Ihrer unabhängigen Variablen einen MCMC-Algorithmus (Metropolis) effizienter macht, aber auch die (Mehrfach-) Kollinearität verringert. Kann das wahr sein? Ist das etwas, was ich als Standard tun sollte? (Entschuldigung). Kruschke 2011, Bayesianische Datenanalyse. …

2
MCMC-Stichprobe des Entscheidungsbaumraums im Vergleich zur zufälligen Gesamtstruktur
Eine zufällige Gesamtstruktur ist eine Sammlung von Entscheidungsbäumen, die gebildet werden, indem nur bestimmte Merkmale zufällig ausgewählt werden, mit denen jeder Baum erstellt werden soll (und manchmal die Trainingsdaten eingesackt werden). Anscheinend lernen und verallgemeinern sie gut. Hat jemand eine MCMC-Stichprobe des Entscheidungsbaumraums erstellt oder diese mit zufälligen Wäldern verglichen? …

3
Schätzen von Parametern eines dynamischen linearen Modells
Ich möchte (in R) das folgende sehr einfache dynamische lineare Modell implementieren, für das ich 2 unbekannte zeitvariable Parameter habe (die Varianz des Beobachtungsfehlers und die Varianz des Zustandsfehlers ). ϵ 2 tϵ1tϵt1\epsilon^1_tϵ2tϵt2\epsilon^2_t Y.tθt + 1==θt+ ϵ1tθt+ ϵ2tYt=θt+ϵt1θt+1=θt+ϵt2 \begin{matrix} Y_t & = & \theta_t + \epsilon^1_t\\ \theta_{t+1} & = & …
11 r  mcmc  dlm  particle-filter 

3
Gibt es eine Standardtechnik zum Debuggen von MCMC-Programmen?
Das Debuggen von MCMC-Programmen ist bekanntermaßen schwierig. Die Schwierigkeit ergibt sich aus mehreren Problemen, von denen einige sind: (a) Zyklische Natur des Algorithmus Wir zeichnen iterativ Parameter, die von allen anderen Parametern abhängig sind. Wenn eine Implementierung nicht ordnungsgemäß funktioniert, ist es daher schwierig, den Fehler zu isolieren, da das …
11 mcmc 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.