Als «mcmc» getaggte Fragen

Markov-Kette Monte Carlo (MCMC) bezieht sich auf eine Klasse von Methoden zum Erzeugen von Proben aus einer Zielverteilung durch Erzeugen von Zufallszahlen aus einer Markov-Kette, deren stationäre Verteilung die Zielverteilung ist. MCMC-Methoden werden typischerweise verwendet, wenn direktere Methoden zur Zufallszahlengenerierung (z. B. Inversionsmethode) nicht durchführbar sind. Die erste MCMC-Methode war der Metropolis-Algorithmus, der später zum Metropolis-Hastings-Algorithmus modifiziert wurde.

2
Berechnen Sie die ROC-Kurve für Daten
Ich habe also 16 Studien, in denen ich versuche, eine Person anhand eines biometrischen Merkmals mithilfe von Hamming Distance zu authentifizieren. Mein Schwellenwert ist auf 3,5 eingestellt. Meine Daten sind unten und nur Versuch 1 ist ein wahres Positiv: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

2
Rao-Blackwellization von Gibbs Sampler
Ich schätze derzeit ein stochastisches Volatilitätsmodell mit Markov-Ketten-Monte-Carlo-Methoden. Dabei implementiere ich Gibbs- und Metropolis-Stichprobenverfahren. Angenommen, ich nehme eher den Mittelwert der posterioren Verteilung als eine Zufallsstichprobe daraus. Wird dies allgemein als Rao-Blackwellization bezeichnet ? Insgesamt würde dies dazu führen, dass der Mittelwert über die Mittelwerte der posterioren Verteilungen als Parameterschätzung …



3
MCMC zur Behandlung von Problemen mit geringer Wahrscheinlichkeit
Ich habe eine ziemlich geringe Wahrscheinlichkeit, dass sich Metropolis-Hastings-Sampler sehr unregelmäßig durch den Parameterraum bewegen, dh es kann keine Konvergenz erreicht werden, unabhängig von den Parametern der Angebotsverteilung (in meinem Fall ist es Gauß). Mein Modell weist keine hohe Komplexität auf - nur zwei Parameter, aber es scheint, dass MH …

2
Akzeptanzverhältnis im Metropolis-Hastings-Algorithmus
Im Metropolis-Hastings-Algorithmus zum Abtasten einer Zielverteilung gilt Folgendes: iπiπi\pi_{i} sei die Zieldichte im Zustand ,iii jπjπj\pi_j ist die im vorgeschlagenen Zustand ,jjj j ihijhijh_{ij} ist die Vorschlagsdichte für den Übergang in den Zustand gegebenem aktuellen Zustand ,jjjiii j iaijaija_{ij} ist die Akzeptanzwahrscheinlichkeit des vorgeschlagenen Zustands bei aktuellem Zustand .jjjiii Dann …


2
Probabilistische Programmierung gegen "traditionelle" ML
Ich habe im Github-Repo nach Pymc gesucht und dieses Notizbuch gefunden: Variationsinferenz: Bayesianische Neuronale Netze Der Autor lobt die Vorzüge der bayesianischen / probabilistischen Programmierung, sagt dann aber weiter: Leider spielt die probabilistische Programmierung bei traditionellen ML-Problemen wie Klassifizierung oder (nichtlinearer) Regression häufig eine zweite Rolle (in Bezug auf Genauigkeit …



1
Hamiltonian Monte Carlo (HMC): Was ist die Intuition und Rechtfertigung hinter einer Gaußschen verteilten Impulsvariablen?
Ich lese gerade ein großartiges HMC-Einführungspapier von Prof. Michael Betancourt, aber ich verstehe nicht, wie wir die Verteilung des Impulses wählen sollen. Zusammenfassung Die Grundidee von HMC besteht darin, eine Impulsvariable in Verbindung mit der Zielvariablen einzuführen . Sie bilden gemeinsam einen Phasenraum .pppqqq Die Gesamtenergie eines konservativen Systems ist …
8 mcmc  monte-carlo  hmc 


2
Warum speichern wir bei der Approximation eines Posterior mit MCMC nicht die posterioren Wahrscheinlichkeiten, sondern verwenden anschließend die Parameterwertfrequenzen?
Ich schätze derzeit Parameter eines Modells, das durch mehrere gewöhnliche Differentialgleichungen (ODEs) definiert ist. Ich versuche dies mit einem Bayes'schen Ansatz, indem ich die posteriore Verteilung der Parameter anhand einiger Daten unter Verwendung der Markov-Kette Monte Carlo (MCMC) approximiere. Ein MCMC-Sampler generiert eine Kette von Parameterwerten, wobei er die (nicht …

3
Hamiltonian / Hybrid MCMC 'Massenmatrix'-Terminologie
Ich versuche, HMC mit einer nicht diagonalen Massenmatrix zu implementieren, aber ich werde von einigen Begriffen gestolpert. Laut BDA3 und Neals Bericht ist der kinetische Energiebegriff (der meiner Meinung nach aus Bequemlichkeitsgründen immer verwendet wird) K.( p ) = pT.M.- 1p2.K(p)=pTM−1p2. K(p) = \frac{p^T M^{-1} p}{2} \,. Dies ist auch …

1
Seltsame Wahrscheinlichkeitsspur von der MCMC-Kette
Ich habe ein Modell, das geht : Single parameter -> Complex likelihood function -> Log-likelihood. Ich habe eine MCMC-Kette (mit pymc) ausgeführt und die Spur des Parameters und die Log-Wahrscheinlichkeit aufgezeichnet. Die Parameterschätzung war vernünftig, aber das Log-Likelihood-Diagramm erscheint mir seltsam. Die Log-Wahrscheinlichkeit überschreitet niemals einen bestimmten Wert. Ich nehme …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.