Als «gibbs» getaggte Fragen

Der Gibbs-Sampler ist eine einfache Form der Markov-Ketten-Monte-Carlo-Simulation, die in der Bayes'schen Statistik weit verbreitet ist und auf Stichproben aus vollständigen bedingten Verteilungen für jede Variable oder Gruppe von Variablen basiert. Der Name stammt von der Methode, die erstmals von Giban und Geman (1984) für die Gibbs-Zufallsfeldmodellierung von Bildern verwendet wurde.

1
Gibbs-Stichprobe für das Ising-Modell
Hausaufgabenfrage: Betrachten Sie das 1-d-Ising-Modell. Let x=(x1,...xd)x=(x1,...xd)x = (x_1,...x_d) . xixix_i ist entweder -1 oder +1 π(x)∝e∑39i=1xixi+1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} Entwerfen Sie einen Gibbs-Abtastalgorithmus, um Abtastwerte ungefähr aus der Zielverteilung zu generieren.π(x)π(x)\pi(x) . Mein Versuch: Wählen Sie zufällig Werte (entweder -1 oder 1), um den Vektor zu füllen . Also vielleicht …


2
Verwirrung im Zusammenhang mit Gibbs-Probenahme
Ich bin auf diesen Artikel gestoßen, in dem steht, dass bei der Gibbs-Probenahme jede Probe akzeptiert wird. Ich bin etwas verwirrt. Wie kommt es, dass jede aufgenommene Probe zu einer stationären Verteilung konvergiert? Im allgemeinen Metropolis-Algorithmus akzeptieren wir als min (1, p (x *) / p (x)), wobei x * …

2
Berechnen Sie die ROC-Kurve für Daten
Ich habe also 16 Studien, in denen ich versuche, eine Person anhand eines biometrischen Merkmals mithilfe von Hamming Distance zu authentifizieren. Mein Schwellenwert ist auf 3,5 eingestellt. Meine Daten sind unten und nur Versuch 1 ist ein wahres Positiv: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

2
Rao-Blackwellization von Gibbs Sampler
Ich schätze derzeit ein stochastisches Volatilitätsmodell mit Markov-Ketten-Monte-Carlo-Methoden. Dabei implementiere ich Gibbs- und Metropolis-Stichprobenverfahren. Angenommen, ich nehme eher den Mittelwert der posterioren Verteilung als eine Zufallsstichprobe daraus. Wird dies allgemein als Rao-Blackwellization bezeichnet ? Insgesamt würde dies dazu führen, dass der Mittelwert über die Mittelwerte der posterioren Verteilungen als Parameterschätzung …


1
Wie schreibe ich das elastische Netz richtig?
Ich bin verwirrt über die richtige Art, das elastische Netz zu schreiben. Nach dem Lesen einiger Forschungsarbeiten scheint es drei Formen zu geben 1)exp{ - λ1| βk| - λ2β2k}}exp⁡{- -λ1|βk|- -λ2βk2}}\exp\{-\lambda_1|\beta_k|-\lambda_2\beta_k^2\} 2)exp{ - ( λ1| βk| + λ2β2k)σ2√}}exp⁡{- -(λ1|βk|+λ2βk2)σ2}}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{\sqrt{\sigma^2}}\} 3)exp{ - ( λ1| βk| + λ2β2k)2 σ2}}exp⁡{- -(λ1|βk|+λ2βk2)2σ2}}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{2\sigma^2}\} Ich verstehe …



1
Bayesianische Schätzung von Dirichlet-Verteilungsparametern
Ich möchte Parameter von Dirichlet-Mischungsmodellen mithilfe der Gibbs-Probenahme schätzen und habe dazu einige Fragen: Entspricht eine Mischung von Dirichlet-Verteilungen einem Dirichlet-Prozess? Was sind ihre Hauptunterschiede, wenn nicht? Wenn ich die Parameter einer einzelnen Dirichlet-Verteilung schätzen möchte, welche Verteilung für Parameter sollte im Bayes'schen Framework als Priors ausgewählt werden? In allen …

3
Warum erfolgt die Probenahme aus der posterioren prädiktiven Verteilung?
In einem Bayes'schen Modell wird die posteriore Vorhersageverteilung normalerweise wie folgt geschrieben: p (xn e w∣x1, …xn) =∫∞- ∞p (xn e w∣ μ ) p ( μ ∣ x1, …xn) dμp(xnew∣x1,…xn)=∫- -∞∞p(xnew∣μ) p(μ∣x1,…xn)dμ p(x_{new} \mid x_1, \ldots x_n) = \int_{-\infty}^{\infty} p(x_{new}\mid \mu) \ p(\mu \mid x_1, \ldots x_n)d\mu für einen …
7 bayesian  mcmc  gibbs 
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.