Als «mcmc» getaggte Fragen

Markov-Kette Monte Carlo (MCMC) bezieht sich auf eine Klasse von Methoden zum Erzeugen von Proben aus einer Zielverteilung durch Erzeugen von Zufallszahlen aus einer Markov-Kette, deren stationäre Verteilung die Zielverteilung ist. MCMC-Methoden werden typischerweise verwendet, wenn direktere Methoden zur Zufallszahlengenerierung (z. B. Inversionsmethode) nicht durchführbar sind. Die erste MCMC-Methode war der Metropolis-Algorithmus, der später zum Metropolis-Hastings-Algorithmus modifiziert wurde.

2
Warum gibt es Empfehlungen gegen die Verwendung von Jeffreys oder entropiebasierten Priors für MCMC-Sampler?
Auf ihrer Wiki-Seite geben die Entwickler von Stan Folgendes an: Einige Prinzipien, die wir nicht mögen: Invarianz, Jeffreys, Entropie Stattdessen sehe ich viele Normalverteilungsempfehlungen. Bisher habe ich Bayes'sche Methoden verwendet, die nicht auf Stichproben beruhten, und war froh zu verstehen, warum war eine gute Wahl für Binomialwahrscheinlichkeiten.θ∼Beta(α=12,β=12)θ∼Beta(α=12,β=12)\theta \sim \text{Beta}\left(\alpha=\frac{1}{2},\beta=\frac{1}{2}\right)
11 bayesian  mcmc  prior  pymc  stan 

1
R / mgcv: Warum produzieren te () und ti () Tensorprodukte unterschiedliche Oberflächen?
Das mgcvPaket für Rhat zwei Funktionen zum Anpassen von Tensorproduktwechselwirkungen: te()und ti(). Ich verstehe die grundlegende Arbeitsteilung zwischen den beiden (Anpassen einer nichtlinearen Wechselwirkung vs. Zerlegen dieser Wechselwirkung in Haupteffekte und eine Wechselwirkung). Was ich nicht verstehe, ist warum te(x1, x2)und ti(x1) + ti(x2) + ti(x1, x2)kann (leicht) unterschiedliche Ergebnisse …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


5
Metropolis Hastings-Algorithmus
Ich muss Markov-Ketten-Monte-Carlo-Methoden studieren, um genauer zu sein, muss ich den Metropolis-Hastings-Algorithmus und alles darüber wie Konvergenzkriterien studieren. Wer kann mir ein Buch, ein Papier oder eine Website vorschreiben, die dieses Argument mit einfachen Begriffen erklären, ohne jedoch trivial zu sein?
11 references  mcmc 

2
PyMC-Anfänger: Wie man tatsächlich aus dem angepassten Modell probiert
Ich versuche ein sehr einfaches Modell: Anpassen eines Normalen, bei dem ich davon ausgehe, dass ich die Präzision kenne und nur den Mittelwert ermitteln möchte. Der folgende Code scheint korrekt zum Normal zu passen. Aber nach dem Anpassen möchte ich aus dem Modell eine Stichprobe erstellen, dh neue Daten generieren, …
11 mcmc  pymc 

1
MCMC mit Metropolis-Hastings-Algorithmus: Auswahl des Vorschlags
Ich muss eine Simulation durchführen, um ein Integral einer 3-Parameter-Funktion zu bewerten, wir sagen , das eine sehr komplizierte Formel hat. Es wird gebeten, die MCMC-Methode zu verwenden, um sie zu berechnen und den Metropolis-Hastings-Algorithmus zu implementieren, um die als verteilten Werte zu generieren , und es wurde vorgeschlagen, eine …

2
Angebotsverteilung für eine verallgemeinerte Normalverteilung
Ich modelliere die Ausbreitung von Pflanzen mithilfe einer verallgemeinerten Normalverteilung ( Wikipedia-Eintrag ), die die Wahrscheinlichkeitsdichtefunktion hat: b2aΓ(1/b)e−(da)bb2aΓ(1/b)e−(da)b \frac{b}{2a\Gamma(1/b)} e^{-(\frac{d}{a})^b} Dabei ist die zurückgelegte Strecke, ein Skalierungsparameter und der Formparameter. Die mittlere zurückgelegte Strecke ergibt sich aus der Standardabweichung dieser Verteilung:dddaaabbb a2Γ(3/b)Γ(1/b)−−−−−−−−√a2Γ(3/b)Γ(1/b) \sqrt{\frac{a^2 \Gamma(3/b)}{\Gamma(1/b)}} Dies ist praktisch, da es eine …

1
Gibt es einen Monte-Carlo / MCMC-Sampler, der isolierte lokale Maxima der posterioren Verteilung verarbeiten kann?
Ich verwende derzeit einen Bayes'schen Ansatz, um Parameter für ein Modell zu schätzen, das aus mehreren ODEs besteht. Da ich 15 Parameter zu schätzen habe, ist mein Abtastraum 15-dimensional und meine Suche nach posteriorer Verteilung scheint viele lokale Maxima zu haben, die durch große Regionen mit sehr geringer Wahrscheinlichkeit sehr …

1
Verhindern, dass Pareto Smoothed Important Sampling (PSIS-LOO) fehlschlägt
Ich habe vor kurzem damit begonnen, die pareto-geglättete Stichprobenauswahl (PSIS-LOO) zu verwenden, die in den folgenden Abhandlungen beschrieben wird: Vehtari, A. & Gelman, A. (2015). Pareto glättete wichtige Stichproben. arXiv Preprint ( Link ). A. Vehtari, A. Gelman & J. Gabry (2016). Praktische Bayes'sche Modellbewertung mit einmaliger Kreuzvalidierung und WAIC. …


2
Können MCMC-Iterationen nach dem Einbrennen zur Dichteschätzung verwendet werden?
Können wir nach dem Einbrennen die MCMC-Iterationen direkt zur Dichteschätzung verwenden, z. B. durch Zeichnen eines Histogramms oder zur Schätzung der Kerneldichte? Ich mache mir Sorgen, dass die MCMC-Iterationen nicht unbedingt unabhängig sind, obwohl sie höchstens identisch verteilt sind. Was ist, wenn wir die MCMC-Iterationen weiter ausdünnen? Ich mache mir …



2
Zensieren / Abschneiden in JAGS
Ich habe eine Frage, wie man ein Zensurproblem in JAGS einfügt. Ich beobachte eine bivariate Normalnormalmischung, bei der die X-Werte einen Messfehler aufweisen. Ich möchte das wahre zugrunde liegende "Mittel" der beobachteten zensierten Werte modellieren. ⌈xtrue+ϵ⌉=xobserved ϵ∼N(0,sd=.5)⌈xtrue+ϵ⌉=xobserved ϵ∼N(0,sd=.5)\begin{align*} \lceil x_{true}+\epsilon \rceil = x_{observed} \ \epsilon \sim N(0,sd=.5) \end{align*} Folgendes habe …

5
Generieren Sie zufällige multivariate Werte aus empirischen Daten
Ich arbeite an einer Monte-Carlo-Funktion zur Bewertung mehrerer Vermögenswerte mit teilweise korrelierten Renditen. Derzeit generiere ich nur eine Kovarianzmatrix und speise die rmvnorm()Funktion in R ein. (Erzeugt korrelierte Zufallswerte.) Betrachtet man jedoch die Verteilung der Renditen eines Vermögenswerts, so wird dieser normalerweise nicht verteilt. Dies ist wirklich eine zweiteilige Frage: …
10 mcmc  monte-carlo  pdf 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.