Als «posterior» getaggte Fragen

Bezieht sich auf die Wahrscheinlichkeitsverteilung von Parametern, die von Daten in der Bayes'schen Statistik abhängig sind.

2
Warum speichern wir bei der Approximation eines Posterior mit MCMC nicht die posterioren Wahrscheinlichkeiten, sondern verwenden anschließend die Parameterwertfrequenzen?
Ich schätze derzeit Parameter eines Modells, das durch mehrere gewöhnliche Differentialgleichungen (ODEs) definiert ist. Ich versuche dies mit einem Bayes'schen Ansatz, indem ich die posteriore Verteilung der Parameter anhand einiger Daten unter Verwendung der Markov-Kette Monte Carlo (MCMC) approximiere. Ein MCMC-Sampler generiert eine Kette von Parameterwerten, wobei er die (nicht …

1
Bayesianische Regression mit Singular - Ist der Posterior gut definiert?
SE-Community, ich hoffe, einige Einblicke in das folgende Problem zu bekommen. Bei einem einfachen linearen Regressionsmodell ist Unter einer Gaußschen Wahrscheinlichkeitsfunktion mit homoskedastischen Fehlertermen nimmt die bedingte Verteilung der abhängigen Variablen die Form Ich weise ein bedingtes (nicht informatives) Konjugat vor und waren . Es ist ein Standardergebnis, dass die …

1
Posterior Predictive Check nach ABC-Inferenz für mehrere Parameter
Ich bin relativ neu in der Bayes'schen Statistik, bitte seien Sie vorsichtig. Ich habe gerade eine ungefähre Bayes'sche Berechnung (ABC) durchgeführt, um auf ein Multi-Parameter-Modell zu schließen. Jetzt möchte ich eine posteriore prädiktive Überprüfung der abgeleiteten Parameter durchführen. Was ich wissen möchte, ist, dass ich bei der Probenahme aus dem …

1
Ableiten der posterioren Dichte für eine logarithmische Wahrscheinlichkeit und Jeffreys 'Prior
Die Wahrscheinlichkeitsfunktion einer logarithmischen Normalverteilung ist: f( x ; μ , σ) ∝ ∏nich11σxichexp( - ( lnxich- μ )22 σ2)f(x;μ,σ)∝∏i1n1σxiexp⁡(−(ln⁡xi−μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) und Jeffreys 'Prior ist: p ( μ , σ) ∝ 1σ2p(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} Die …

1
Zeichnen einer „hinteren Mittelfläche“
Als Teil der Reproduktion eines Modells, das ich teilweise in dieser Frage zum Stapelüberlauf beschrieben habe, möchte ich eine grafische Darstellung einer posterioren Verteilung erhalten. Das (räumliche) Modell beschreibt den Verkaufspreis einiger Immobilien als Bernoulli-Verteilung, je nachdem, ob die Immobilie teuer (1) oder billig (0) ist. In Gleichungen: p i …

1
Warum nicht Beta (1,1) als Grenzvermeidung vor einem transformierten Korrelationsparameter verwenden?
In Bayesian Data Analysis , Kapitel 13, Seite 317, zweiter vollständiger Absatz, in den Modal- und Verteilungsnäherungen, haben Gelman et al. schreiben: Wenn der Plan darin besteht, die Inferenz durch den posterioren Modus von [dem Korrelationsparameter in einer bivariaten Normalverteilung] zusammenzufassen, würden wir die vorherige Verteilung von U (-1,1) durch …

2
Warum würde ein statistisches Modell bei einem riesigen Datensatz überanpassen?
Für mein aktuelles Projekt muss ich möglicherweise ein Modell erstellen, um das Verhalten einer bestimmten Personengruppe vorherzusagen. Der Trainingsdatensatz enthält nur 6 Variablen (ID dient nur zu Identifikationszwecken): id, age, income, gender, job category, monthly spend in dem monthly spendist die Antwortvariable. Der Trainingsdatensatz enthält jedoch ungefähr 3 Millionen Zeilen, …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 


2
Berechnung der Wahrscheinlichkeit, wenn
Ich versuche diese hintere Verteilung zu berechnen: (θ|−)=∏ni=1pyii(1−pi)1−yi∑allθ,pi|θ∏ni=1pyii(1−pi)1−yi(θ|−)=∏i=1npiyi(1−pi)1−yi∑allθ,pi|θ∏i=1npiyi(1−pi)1−yi (\theta|-)=\frac{\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}}{\sum_{\text{all}\,\theta,p_i|\theta}\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}} Das Problem ist, dass der Zähler, der das Produkt einer Reihe von -Wahrscheinlichkeiten ist, zu klein ist. (Mein ist groß, ungefähr 1500).Bernoulli(pi,yi)Bernoulli(pi,yi)\text{Bernoulli}(p_i,y_i)nnn Daher werden die posterioren Werte für all all zu 0 berechnet (ich berechne in R).θθ\theta Zur Verdeutlichung hat jedes …

1
Verwendung empirischer Prioritäten in PyMC
Ich verwende PyMC, um die posteriore Verteilung abzutasten, und bin auf eine Straßensperre gestoßen, bei der Priors aus Samples verwendet werden, keine Modelle. Meine Situation ist wie folgt: Ich habe einige empirische Daten für einen Parameter aus dem ich eine Wahrscheinlichkeitsverteilung p (z) berechne . Es ist kein Modell / …

3
Die Überprüfung eines Seitenzahns ist richtig
In einem Lehrbuch gibt es ein Hausaufgabenproblem, bei dem die Richtigkeit einer bestimmten posterioren Verteilung überprüft werden soll, und ich habe ein kleines Problem damit. Das Setup besteht darin, dass Sie ein logistisches Regressionsmodell mit einem Prädiktor haben und eine falsche Uniform vor .R2R2\mathbb{R}^2 Insbesondere nehmen wir für dass also …

2
Warum führt die Kodierung der Behandlung zu einer Korrelation zwischen zufälliger Steigung und Schnittpunkt?
Betrachten Sie ein faktorielles Design innerhalb des Subjekts und innerhalb des Gegenstands, bei dem die experimentelle Behandlungsvariable zwei Ebenen (Bedingungen) aufweist. Sei m1das Maximalmodell und m2das No-Random-Correlations-Modell. m1: y ~ condition + (condition|subject) + (condition|item) m2: y ~ condition + (1|subject) + (0 + condition|subject) + (1|item) + (0 + …

2
Posteriore prädiktive Verteilung gegen MAP-Schätzung
Betrachten Sie einen Trainingsdatensatz , ein durch parametrisiertes Wahrscheinlichkeitsmodell und ein vorheriges P (\ theta) . Für einen neuen Datenpunkt x ^ * können wir P (x ^ *) berechnen mit:XXXθθ\thetaP(θ)P(θ)P(\theta)x∗x∗x^*P(x∗)P(x∗)P(x^*) ein vollständig bayesianischer Ansatz: die posteriore Vorhersageverteilung P(x∗|X)=∫P(θ|X)P(x∗|θ)dθP(x∗|X)=∫P(θ|X)P(x∗|θ)dθP(x^* | X) = \int P(\theta|X) P(x^*|\theta) d\theta die Wahrscheinlichkeit, die durch …

3
Dirichlet-konjugierte Update-Ableitung
Ich versuche, die Aktualisierungsgleichungen für das Konjugat an die Dirichlet-Verteilung abzuleiten, wie hier beschrieben: /mathpro/20399/conjugate-prior-of-the-dirichlet-distribution Die von mir berechnete Parameteraktualisierungsgleichung stimmt jedoch nicht mit der dort vorgeschlagenen überein. Meine Ableitung ist unten dargestellt: where, f(θ|α)=Dir(θ|α)=1B(α)exp(ϕ(α)Tu(θ))f(θ|α)=Dir(θ|α)=1B(α)exp⁡(ϕ(α)Tu(θ))\begin{align} f({\theta}|{\alpha}) &= Dir({\theta}|{\alpha})\\ &=\frac{1}{B({\alpha})}\exp(\phi({\alpha})^{T}u({\theta})) \end{align}ϕ(α)Tu(θ)B(α)=[α1−1,⋯,αK−1]=[ln(θ1),⋯,ln(θK)]T=∏Ki=1Γ(αi)Γ(∑Ki=1αi)ϕ(α)T=[α1−1,⋯,αK−1]u(θ)=[ln⁡(θ1),⋯,ln⁡(θK)]TB(α)=∏i=1KΓ(αi)Γ(∑i=1Kαi)\begin{align} \phi({\alpha})^{T} &= [\alpha_1-1,\cdots,\alpha_K-1]\\ u({\theta}) &= [\ln(\theta_1),\cdots,\ln(\theta_K)]^{T}\\ B({\alpha}) &= \frac{\prod_{i=1}^{K}\Gamma(\alpha_i)}{\Gamma\left(\sum_{i=1}^{K}\alpha_i\right)} \end{align} …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.