Als «posterior» getaggte Fragen

Bezieht sich auf die Wahrscheinlichkeitsverteilung von Parametern, die von Daten in der Bayes'schen Statistik abhängig sind.


2
Warum ist das Problem der Unordnung bei großen Stichproben nicht zu lösen?
Angenommen, wir haben eine Menge von Punkten y={y1,y2,…,yN}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \} . Jeder Punkt wird unter Verwendung der Verteilung p ( y i | x ) = 1 erzeugtyiyiy_ip(yi|x)=12N(x,1)+12N(0,10).p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 \mathcal{N}(x, 1) + \frac12 \mathcal{N}(0, 10). Um posterior fürxxx, schreiben wir p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x).p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x). p(x| \mathbf{y}) …

2
Was sind die Parameter eines Wishart-Wishart posterior?
Wenn die Präzision Matrix infering ΛΛ\boldsymbol{\Lambda} einer Normalverteilung verwendet , zu erzeugen D-dimensionalen Vektoren wir normalerweise einen Wishart vor da die Wishart-Verteilung das Konjugat vor der Präzision einer Multivariate ist Normalverteilung mit bekanntem Mittelwert und unbekannter Varianz: wobei \ upsilon ist die Freiheitsgrade und \ boldsymbol {\ Lambda_0} dieNNNx1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} …

1
Schritte, um eine posteriore Verteilung herauszufinden, wenn es einfach genug sein könnte, eine analytische Form zu haben?
Dies wurde auch bei Computational Science gefragt . Ich versuche, eine Bayes'sche Schätzung einiger Koeffizienten für eine Autoregression mit 11 Datenproben zu berechnen: wobei ist Gauß mit Mittelwert 0 und Varianz Die vorherige Verteilung auf dem Vektor ist Gauß mit Mittelwert und einer diagonalen Kovarianzmatrix mit diagonale Einträge gleich .Yi=μ+α⋅Yi−1+ϵiYi=μ+α⋅Yi−1+ϵi …

2
Warum werden in der Bayes'schen Folgerung einige Begriffe aus der posterioren Vorhersage gestrichen?
In Kevin Murphys Conjugate Bayesian-Analyse der Gaußschen Verteilung schreibt er, dass die posteriore prädiktive Verteilung ist p(x∣D)=∫p(x∣θ)p(θ∣D)dθp(x∣D)=∫p(x∣θ)p(θ∣D)dθ p(x \mid D) = \int p(x \mid \theta) p(\theta \mid D) d \theta Dabei ist die Daten, an die das Modell angepasst ist, und sind unsichtbare Daten. Was ich nicht verstehe ist, warum …

2
Kann eine angemessene vorherige und potenzierte Wahrscheinlichkeit zu einem unangemessenen posterioren führen?
(Diese Frage ist von diesem Kommentar von Xi'an inspiriert .) Es ist bekannt , dass , wenn die vorherige Verteilung π(θ)π(θ)\pi(\theta) ist die richtige und die Wahrscheinlichkeit L(θ|x)L(θ|x)L(\theta | x) ist wohldefiniert, so ist die a posteriori Verteilung π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) ist fast sicher richtig. In einigen Fällen verwenden wir …

2
Ableitung von Normal-Wishart posterior
Ich arbeite an der Ableitung eines Normal-Wishart-Posterior, stecke aber bei einem der Parameter fest (dem Posterior der Skalenmatrix, siehe unten). Nur für den Kontext und die Vollständigkeit, hier ist das Modell und der Rest der Ableitungen: xiμΛ∼N(μ,Λ)∼N(μ0,(κ0Λ)−1)∼W(υ0,W0)xi∼N(μ,Λ)μ∼N(μ0,(κ0Λ)−1)Λ∼W(υ0,W0)\begin{align} x_i &\sim \mathcal{N}(\boldsymbol{\mu}, \boldsymbol{\Lambda})\\ \boldsymbol{\mu} &\sim \mathcal{N}(\boldsymbol{\mu_0}, (\kappa_0 \boldsymbol{\Lambda})^{-1})\\ \boldsymbol{\Lambda} &\sim \mathcal{W}(\upsilon_0, \mathbf{W}_0) …

1
Beispiel für eine maximale a posteriori-Schätzung
Ich habe über Maximum-Likelihood-Schätzung und Maximum-A-Posteriori-Schätzung gelesen und bisher nur konkrete Beispiele mit Maximum-Likelihood-Schätzung getroffen. Ich habe einige abstrakte Beispiele für eine maximale a posteriori-Schätzung gefunden, aber noch nichts Konkretes mit Zahlen darauf: S. Es kann sehr überwältigend sein, nur mit abstrakten Variablen und Funktionen zu arbeiten, und um nicht …

1
Wann kann die häufig auftretende Stichprobenverteilung in Regressionseinstellungen nicht als Bayesian posterior interpretiert werden?
Meine eigentlichen Fragen sind in den letzten beiden Absätzen, aber um sie zu motivieren: Wenn ich versuche, den Mittelwert einer Zufallsvariablen zu schätzen, die einer Normalverteilung mit einer bekannten Varianz folgt, habe ich gelesen, dass das Setzen einer Uniform vor dem Mittelwert zu einer posterioren Verteilung führt, die proportional zur …

2
Bewerten Sie die posteriore prädiktive Verteilung in der Bayes'schen linearen Regression
Ich bin verwirrt darüber, wie die posteriore prädiktive Verteilung für die Bayes'sche lineare Regression nach dem hier auf Seite 3 beschriebenen und unten kopierten Grundfall bewertet werden soll. p ( y~∣ y)=∫p(y~∣β,σ2)p(β,σ2∣y)p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y) p(\tilde y \mid y) = \int p(\tilde y \mid \beta, \sigma^2) p(\beta, \sigma^2 \mid y) Der Grundfall ist …

2
Macht Stan vorausschauende Posterioren?
Verfügt Stan (insbesondere Rstan) über integrierte Einrichtungen zur Erzeugung prädiktiver posteriorer Verteilungen? Es ist nicht schwer, die Verteilung aus der Stan-Passform zu generieren, aber ich möchte das Rad lieber nicht neu erfinden.



3
MCMC zur Behandlung von Problemen mit geringer Wahrscheinlichkeit
Ich habe eine ziemlich geringe Wahrscheinlichkeit, dass sich Metropolis-Hastings-Sampler sehr unregelmäßig durch den Parameterraum bewegen, dh es kann keine Konvergenz erreicht werden, unabhängig von den Parametern der Angebotsverteilung (in meinem Fall ist es Gauß). Mein Modell weist keine hohe Komplexität auf - nur zwei Parameter, aber es scheint, dass MH …

2
Einrichten eines Simulationsalgorithmus zur Überprüfung der Kalibrierung der Bayes'schen posterioren Wahrscheinlichkeiten
Herauszufinden, wie man etwas simuliert, ist oft der beste Weg, um die zugrunde liegenden Prinzipien zu verstehen. Ich weiß nicht genau, wie ich Folgendes simulieren soll. Angenommen, und hat eine vorherige Verteilung, die . Basierend auf einer Stichprobe von Beobachtungen abgekürzt mit nur , möchte ich einem Nicht-Bayesianer zeigen, dass …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.