Was sind gute Anhaltspunkte für die minimale Anzahl effektiver Proben , die angestrebt werden sollten, wenn MCMC-Proben abgerufen werden, um Rückschlüsse auf einen bestimmten Parameter zu ziehen? Und ändert sich dieser Ratschlag, wenn das Modell mehr oder weniger komplex wird?
Angenommen, wir haben eine Menge von Punkten y={y1,y2,…,yN}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \} . Jeder Punkt wird unter Verwendung der Verteilung p ( y i | x ) = 1 erzeugtyiyiy_ip(yi|x)=12N(x,1)+12N(0,10).p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 \mathcal{N}(x, 1) + \frac12 \mathcal{N}(0, 10). Um posterior fürxxx, schreiben wir p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x).p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x). p(x| \mathbf{y}) …
Wenn die Präzision Matrix infering ΛΛ\boldsymbol{\Lambda} einer Normalverteilung verwendet , zu erzeugen D-dimensionalen Vektoren wir normalerweise einen Wishart vor da die Wishart-Verteilung das Konjugat vor der Präzision einer Multivariate ist Normalverteilung mit bekanntem Mittelwert und unbekannter Varianz: wobei \ upsilon ist die Freiheitsgrade und \ boldsymbol {\ Lambda_0} dieNNNx1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} …
Dies wurde auch bei Computational Science gefragt . Ich versuche, eine Bayes'sche Schätzung einiger Koeffizienten für eine Autoregression mit 11 Datenproben zu berechnen: wobei ist Gauß mit Mittelwert 0 und Varianz Die vorherige Verteilung auf dem Vektor ist Gauß mit Mittelwert und einer diagonalen Kovarianzmatrix mit diagonale Einträge gleich .Yi=μ+α⋅Yi−1+ϵiYi=μ+α⋅Yi−1+ϵi …
In Kevin Murphys Conjugate Bayesian-Analyse der Gaußschen Verteilung schreibt er, dass die posteriore prädiktive Verteilung ist p(x∣D)=∫p(x∣θ)p(θ∣D)dθp(x∣D)=∫p(x∣θ)p(θ∣D)dθ p(x \mid D) = \int p(x \mid \theta) p(\theta \mid D) d \theta Dabei ist die Daten, an die das Modell angepasst ist, und sind unsichtbare Daten. Was ich nicht verstehe ist, warum …
(Diese Frage ist von diesem Kommentar von Xi'an inspiriert .) Es ist bekannt , dass , wenn die vorherige Verteilung π(θ)π(θ)\pi(\theta) ist die richtige und die Wahrscheinlichkeit L(θ|x)L(θ|x)L(\theta | x) ist wohldefiniert, so ist die a posteriori Verteilung π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) ist fast sicher richtig. In einigen Fällen verwenden wir …
Ich arbeite an der Ableitung eines Normal-Wishart-Posterior, stecke aber bei einem der Parameter fest (dem Posterior der Skalenmatrix, siehe unten). Nur für den Kontext und die Vollständigkeit, hier ist das Modell und der Rest der Ableitungen: xiμΛ∼N(μ,Λ)∼N(μ0,(κ0Λ)−1)∼W(υ0,W0)xi∼N(μ,Λ)μ∼N(μ0,(κ0Λ)−1)Λ∼W(υ0,W0)\begin{align} x_i &\sim \mathcal{N}(\boldsymbol{\mu}, \boldsymbol{\Lambda})\\ \boldsymbol{\mu} &\sim \mathcal{N}(\boldsymbol{\mu_0}, (\kappa_0 \boldsymbol{\Lambda})^{-1})\\ \boldsymbol{\Lambda} &\sim \mathcal{W}(\upsilon_0, \mathbf{W}_0) …
Ich habe über Maximum-Likelihood-Schätzung und Maximum-A-Posteriori-Schätzung gelesen und bisher nur konkrete Beispiele mit Maximum-Likelihood-Schätzung getroffen. Ich habe einige abstrakte Beispiele für eine maximale a posteriori-Schätzung gefunden, aber noch nichts Konkretes mit Zahlen darauf: S. Es kann sehr überwältigend sein, nur mit abstrakten Variablen und Funktionen zu arbeiten, und um nicht …
Meine eigentlichen Fragen sind in den letzten beiden Absätzen, aber um sie zu motivieren: Wenn ich versuche, den Mittelwert einer Zufallsvariablen zu schätzen, die einer Normalverteilung mit einer bekannten Varianz folgt, habe ich gelesen, dass das Setzen einer Uniform vor dem Mittelwert zu einer posterioren Verteilung führt, die proportional zur …
Ich bin verwirrt darüber, wie die posteriore prädiktive Verteilung für die Bayes'sche lineare Regression nach dem hier auf Seite 3 beschriebenen und unten kopierten Grundfall bewertet werden soll. p ( y~∣ y)=∫p(y~∣β,σ2)p(β,σ2∣y)p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y) p(\tilde y \mid y) = \int p(\tilde y \mid \beta, \sigma^2) p(\beta, \sigma^2 \mid y) Der Grundfall ist …
Verfügt Stan (insbesondere Rstan) über integrierte Einrichtungen zur Erzeugung prädiktiver posteriorer Verteilungen? Es ist nicht schwer, die Verteilung aus der Stan-Passform zu generieren, aber ich möchte das Rad lieber nicht neu erfinden.
Angenommen, Sie haben eine Binomialverteilung, bei der der Prior des Parameters einheitlich ist. Wie kann ich die posteriore Verteilung des Parameters erhalten?
Warum wird bei der Schätzung von Parametern mit MAP geschrieben, dass wir den "Modus" schätzen? Ich dachte, es wäre der Mittelwert der posterioren Verteilung?
Ich habe eine ziemlich geringe Wahrscheinlichkeit, dass sich Metropolis-Hastings-Sampler sehr unregelmäßig durch den Parameterraum bewegen, dh es kann keine Konvergenz erreicht werden, unabhängig von den Parametern der Angebotsverteilung (in meinem Fall ist es Gauß). Mein Modell weist keine hohe Komplexität auf - nur zwei Parameter, aber es scheint, dass MH …
Herauszufinden, wie man etwas simuliert, ist oft der beste Weg, um die zugrunde liegenden Prinzipien zu verstehen. Ich weiß nicht genau, wie ich Folgendes simulieren soll. Angenommen, und hat eine vorherige Verteilung, die . Basierend auf einer Stichprobe von Beobachtungen abgekürzt mit nur , möchte ich einem Nicht-Bayesianer zeigen, dass …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.