Als «metropolis-hastings» getaggte Fragen

Ein spezieller Typ eines Markov-Ketten-Monte-Carlo-Algorithmus (MCMC), der zur Simulation komplexer Wahrscheinlichkeitsverteilungen verwendet wird. Es ist durch die Markov-Kettentheorie validiert und bietet eine breite Palette möglicher Implementierungen.

1
Was ist der Unterschied zwischen Metropolis Hastings, Gibbs, Importance und Rejection Sampling?
Ich habe versucht, MCMC-Methoden zu erlernen und bin auf Stichproben von Metropolis Hastings, Gibbs, Wichtigkeit und Ablehnung gestoßen. Während einige dieser Unterschiede offensichtlich sind, dh wie Gibbs ein Sonderfall von Metropolis Hastings ist, wenn wir die vollständigen Bedingungen haben, sind die anderen weniger offensichtlich, wenn wir MH in einem Gibbs-Sampler …

1
Was sind einige bekannte Verbesserungen gegenüber Lehrbuch-MCMC-Algorithmen, die Menschen für die Bayes'sche Inferenz verwenden?
Wenn ich eine Monte-Carlo-Simulation für ein Problem programmiere und das Modell einfach genug ist, verwende ich ein sehr einfaches Gibbs-Sampling-Lehrbuch. Wenn es nicht möglich ist, Gibbs-Sampling zu verwenden, codiere ich das Lehrbuch Metropolis-Hastings, das ich vor Jahren gelernt habe. Der einzige Gedanke, den ich mir überlege, ist die Auswahl der …


2
Gibbs-Stichprobe gegen allgemeine MH-MCMC
Ich habe gerade etwas über Gibbs Sampling und Metropolis Hastings Algorithmus gelesen und habe ein paar Fragen. Soweit ich weiß, wird bei einer Gibbs-Stichprobe, wenn wir ein großes multivariates Problem haben, von der bedingten Verteilung abgetastet, dh eine Variable abgetastet, während alle anderen festgehalten werden, während in MH von der …

4
In der Praxis verwendete Metropolis-Hastings-Algorithmen
Ich habe heute Christian Roberts Blog gelesen und mochte den neuen Metropolis-Hastings-Algorithmus, den er diskutierte, sehr. Es schien einfach und leicht zu implementieren. Immer wenn ich MCMC codiere, bleibe ich bei sehr einfachen MH-Algorithmen, wie unabhängigen Zügen oder zufälligen Schritten auf der Log-Skala. Welche MH-Algorithmen verwenden Menschen routinemäßig? Bestimmtes: Warum …

1
Wann würde man Gibbs-Sampling anstelle von Metropolis-Hastings verwenden?
Es gibt verschiedene Arten von MCMC-Algorithmen: Metropolis-Hastings Gibbs Stichprobe von Bedeutung / Ablehnung (in Verbindung stehend). Warum sollte man Gibbs-Sampling anstelle von Metropolis-Hastings verwenden? Ich vermute, dass es Fälle gibt, in denen Rückschlüsse mit Gibbs-Stichproben besser möglich sind als mit Metropolis-Hastings, aber die Einzelheiten sind mir nicht klar.

1
Metropolis-Hastings-Integration - warum funktioniert meine Strategie nicht?
Angenommen, ich habe eine Funktion , die ich integrieren möchte: Natürlich unter der Annahme, dass an den Endpunkten auf Null geht, keine Blowups, nette Funktion. Eine Möglichkeit, mit der ich herumgespielt habe, besteht darin, mit dem Metropolis-Hastings-Algorithmus eine Liste der Stichproben aus der zu proportionalen Verteilung zu , in der …

1
Stan versus Gelman-Rubin Definition
Ich habe die Stan-Dokumentation durchgesehen, die hier heruntergeladen werden kann . Besonders interessiert hat mich die Implementierung der Gelman-Rubin-Diagnostik. Das Originalpapier Gelman & Rubin (1992) definiert den potenziellen Skalenreduktionsfaktor (PSRF) wie folgt: Sei die te Markov-Kette, und es seien insgesamt unabhängige Ketten abgetastet. Sei der Mittelwert aus der ten Kette …

2
Verwechselt mit MCMC Metropolis-Hastings-Variationen: Random-Walk, Non-Random-Walk, Independent, Metropolis
In den letzten Wochen habe ich versucht, MCMC und die Metropolis-Hastings-Algorithmen zu verstehen. Jedes Mal, wenn ich denke, dass ich es verstehe, stelle ich fest, dass ich falsch liege. Die meisten Codebeispiele, die ich online finde, implementieren etwas, das nicht mit der Beschreibung übereinstimmt. Dh: Sie sagen, sie implementieren Metropolis-Hastings, …

4
Kann ich die Angebotsverteilung in MH MCMC nach dem Zufallsprinzip ändern, ohne dass dies Auswirkungen auf Markovianity hat?
Zufallsspaziergang Metropolis-Hasitings mit symmetrischem Vorschlag q(x|y)=g(|y−x|)q(x|y)=g(|y−x|)q(x|y)= g(|y-x|) hat die Eigenschaft, dass die Akzeptanzwahrscheinlichkeit P(accept y)=min{1,f(y)/f(x)}P(accept y)=min{1,f(y)/f(x)}P(accept\ y) = \min\{1, f(y)/f(x)\} hängt nicht vom Vorschlag g(⋅)g(⋅)g(\cdot) . Bedeutet das, dass ich das g(⋅)g(⋅)g(\cdot) in Abhängigkeit von der vorherigen Leistung der Kette ändern kann , ohne die Markovianität der Kette zu beeinträchtigen? …


1
Grundlegendes zu MCMC und dem Metropolis-Hastings-Algorithmus
In den letzten Tagen habe ich versucht zu verstehen, wie Markov Chain Monte Carlo (MCMC) funktioniert. Insbesondere habe ich versucht, den Metropolis-Hastings-Algorithmus zu verstehen und zu implementieren. Bisher denke ich, dass ich den Algorithmus allgemein verstehe, aber es gibt ein paar Dinge, die mir noch nicht klar sind. Ich möchte …

1
R / mgcv: Warum produzieren te () und ti () Tensorprodukte unterschiedliche Oberflächen?
Das mgcvPaket für Rhat zwei Funktionen zum Anpassen von Tensorproduktwechselwirkungen: te()und ti(). Ich verstehe die grundlegende Arbeitsteilung zwischen den beiden (Anpassen einer nichtlinearen Wechselwirkung vs. Zerlegen dieser Wechselwirkung in Haupteffekte und eine Wechselwirkung). Was ich nicht verstehe, ist warum te(x1, x2)und ti(x1) + ti(x2) + ti(x1, x2)kann (leicht) unterschiedliche Ergebnisse …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
MCMC mit Metropolis-Hastings-Algorithmus: Auswahl des Vorschlags
Ich muss eine Simulation durchführen, um ein Integral einer 3-Parameter-Funktion zu bewerten, wir sagen , das eine sehr komplizierte Formel hat. Es wird gebeten, die MCMC-Methode zu verwenden, um sie zu berechnen und den Metropolis-Hastings-Algorithmus zu implementieren, um die als verteilten Werte zu generieren , und es wurde vorgeschlagen, eine …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.