Als «prior» getaggte Fragen

In der Bayes'schen Statistik formalisiert eine vorherige Verteilung Informationen oder Wissen (oft subjektiv), die verfügbar sind, bevor eine Stichprobe gesehen wird, in Form einer Wahrscheinlichkeitsverteilung. Eine Verteilung mit großer Streuung wird verwendet, wenn wenig über die Parameter bekannt ist, während eine engere vorherige Verteilung einen größeren Informationsgrad darstellt.

2
Einbeziehung der Wahrscheinlichkeitsverteilung früherer Klassen in die logistische Regression
Ich bin erstaunt, dass ich keine Artikel / Vorträge darüber finden kann, wie man Prior Class Probability Distributions in Klassifikatoren wie Logistic Regression oder Random Forest integrieren kann. Meine Frage lautet also: Wie kann die Wahrscheinlichkeitsverteilung früherer Klassen in logistische Regression oder zufällige Wälder einbezogen werden? Bedeutet die Einbeziehung der …

4
Wie werden Daten im Bayes'schen Framework generiert und wie sieht der Parameter aus, der die Daten generiert?
Ich habe versucht, die Bayes'schen Statistiken neu zu lernen (jedes Mal, wenn ich dachte, ich hätte sie endlich bekommen, taucht etwas anderes auf, das ich vorher nicht in Betracht gezogen habe ...), aber es war (für mich) nicht klar, wie der Datengenerierungsprozess ablief im Bayesianischen Rahmen ist eigentlich. Der frequentistische …

1
Hyperprior-Verteilungen für die Parameter (Skalenmatrix und Freiheitsgrade) eines Wisharts vor einer inversen Kovarianzmatrix
Ich schätze mehrere inverse Kovarianzmatrizen einer Reihe von Messungen über verschiedene Subpopulationen hinweg unter Verwendung eines Wisharts vor jags / rjags / R. Anstatt eine Skalenmatrix und Freiheitsgrade in der inversen Kovarianzmatrix vor (der Wishart-Verteilung) anzugeben, möchte ich einen Hyperprior in der Skalenmatrix und den Freiheitsgraden verwenden, damit sie aus …


3
Ein konkretes Beispiel ist die Durchführung einer SVD, um fehlende Werte zu unterstellen
Ich habe die großartigen Kommentare zum Umgang mit fehlenden Werten vor dem Anwenden von SVD gelesen, möchte aber anhand eines einfachen Beispiels wissen, wie dies funktioniert: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Wenn ich in der …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 



2
Wie verwendet man den Bayes-Satz mit einem kontinuierlichen Prior?
Wie kann ich die hintere Wahrscheinlichkeit berechnen, wenn mein Prior als kontinuierliche Wahrscheinlichkeitsverteilung modelliert wird, beispielsweise als Beta-Verteilung, die verzerrt ist, um meine Neigung zu bestimmten Modellen widerzuspiegeln? Die Herausforderung für mich besteht darin, die Wahrscheinlichkeit eines bestimmten Modells zu berechnen, da die kontinuierliche Verteilung nur Schätzungen für Intervalle liefert …
8 bayesian  prior 


1
Ableiten der posterioren Dichte für eine logarithmische Wahrscheinlichkeit und Jeffreys 'Prior
Die Wahrscheinlichkeitsfunktion einer logarithmischen Normalverteilung ist: f( x ; μ , σ) ∝ ∏nich11σxichexp( - ( lnxich- μ )22 σ2)f(x;μ,σ)∝∏i1n1σxiexp⁡(−(ln⁡xi−μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) und Jeffreys 'Prior ist: p ( μ , σ) ∝ 1σ2p(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} Die …

1
Warum nicht Beta (1,1) als Grenzvermeidung vor einem transformierten Korrelationsparameter verwenden?
In Bayesian Data Analysis , Kapitel 13, Seite 317, zweiter vollständiger Absatz, in den Modal- und Verteilungsnäherungen, haben Gelman et al. schreiben: Wenn der Plan darin besteht, die Inferenz durch den posterioren Modus von [dem Korrelationsparameter in einer bivariaten Normalverteilung] zusammenzufassen, würden wir die vorherige Verteilung von U (-1,1) durch …


1
Auswahl nicht informativer Prioritäten
Ich arbeite an einem Modell, das auf einer hässlichen parametrisierten Funktion beruht, die als Kalibrierungsfunktion für einen Teil des Modells fungiert. Bei Verwendung einer Bayes'schen Einstellung muss ich nicht informative Prioritäten für die Parameter erhalten, die meine Funktion beschreiben. Ich weiß, dass ich im Idealfall Referenz- oder zumindest Jeffreys-Prioritäten ableiten …

2
Wie hängt die inverse Gammaverteilung mit
Vorausgesetzt, dass die hintere Schätzung von einer normalen Wahrscheinlichkeit und eines inversen Gammas vor σ 2 ist:σ′2σ′2\sigma'^{2}σ2σ2\sigma^2 σ′2∼IG(α+n2,β+∑ni=1(yi−μ)22)σ′2∼IG(α+n2,β+∑i=1n(yi−μ)22)\sigma'^{2}\sim\textrm{IG}\left(\alpha + \frac{n}{2}, \beta +\frac{\sum_{i=1}^n{(y_i-\mu)^2}}{2}\right) das ist äquivalent zu σ′2∼IG(n2,nσ22)σ′2∼IG(n2,nσ22)\sigma'^{2}\sim\textrm{IG}\left( \frac{n}{2}, \frac{n\sigma^2}{2}\right) da eine schwache , bevor sie auf σ 2 entfernt & alpha und β aus Gleichung 1:IG(α,β)IG(α,β)\textrm{IG}(\alpha, \beta)σ2σ2\sigma^2αα\alphaββ\beta σ′2∼IG(n2,∑ni=1(yi−μ)22)σ′2∼IG(n2,∑i=1n(yi−μ)22)\sigma'^{2}\sim\textrm{IG}\left( \frac{n}{2}, \frac{\sum_{i=1}^n{(y_i-\mu)^2}}{2}\right) …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.