Als «bayesian» getaggte Fragen

Die Bayes'sche Inferenz ist eine Methode der statistischen Inferenz, die darauf beruht, die Modellparameter als Zufallsvariablen zu behandeln und den Bayes'schen Satz anzuwenden, um subjektive Wahrscheinlichkeitsaussagen über die Parameter oder Hypothesen abzuleiten, abhängig vom beobachteten Datensatz.

3
Was sind einige illustrative Anwendungen der empirischen Wahrscheinlichkeit?
Ich habe von Owens empirischer Wahrscheinlichkeit gehört, habe sie aber bis vor kurzem nicht beachtet, bis ich auf sie in einem Papier von Interesse gestoßen bin ( Mengersen et al. 2012 ). Um es zu verstehen, habe ich herausgefunden, dass die Wahrscheinlichkeit der beobachteten Daten als , wobei und .L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L …

1
Berechnung der Wiederholbarkeit von Effekten aus einem früheren Modell
Ich bin gerade auf diese Arbeit gestoßen , in der beschrieben wird, wie die Wiederholbarkeit (auch bekannt als Zuverlässigkeit, auch bekannt als Intraclass-Korrelation) einer Messung über Mixed-Effects-Modellierung berechnet wird. Der R-Code wäre: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 



3
Warum werden Jeffreys Priors als nicht informativ eingestuft?
Stellen Sie sich einen Jeffreys vor, wo , wo die Fisher-Information ist.ichp ( θ ) ∝ | i ( θ ) |----√p(θ)∝|i(θ)|p(\theta) \propto \sqrt{|i(\theta)|}ichii Ich sehe diesen Prior immer wieder als nicht informativen Prior, aber ich habe nie ein Argument dafür gesehen, warum er nicht informativ ist. Immerhin ist es …
27 bayesian  prior 





1
Beziehung zwischen Variation Bayes und EM
Ich habe irgendwo gelesen, dass die Variational Bayes-Methode eine Verallgemeinerung des EM-Algorithmus ist. In der Tat sind die iterativen Teile der Algorithmen sehr ähnlich. Um zu testen, ob der EM-Algorithmus eine spezielle Version der Variational Bayes ist, habe ich Folgendes versucht: Y.Y.Y ist Daten, ist die Sammlung latenter Variablen und …

5
Der Wikipedia-Eintrag zur Wahrscheinlichkeit ist nicht eindeutig
Ich habe eine einfache Frage bezüglich "bedingter Wahrscheinlichkeit" und "Wahrscheinlichkeit". (Ich habe diese Frage hier bereits untersucht , aber ohne Erfolg.) Es beginnt auf der Wikipedia- Seite zur Wahrscheinlichkeit . Sie sagen das: Die Wahrscheinlichkeit eines Satzes von Parameterwerten θθ\theta bei gegebenen Ergebnissen xxx ist gleich der Wahrscheinlichkeit dieser beobachteten …

3
Werden Bayesianische Priors bei großen Stichproben irrelevant?
Bei der Bayes'schen Inferenz maximieren wir unsere Wahrscheinlichkeitsfunktion in Kombination mit den Prioritäten, die wir für die Parameter haben. Da die Log-Wahrscheinlichkeit praktischer ist, maximieren wir effektiv Verwendung einer MCMC oder auf andere Weise, die die hinteren Verteilungen generiert (unter Verwendung eines PDFs für die Priorität jedes Parameters und die …
26 bayesian  prior 



2
Stimmt es, dass Bayes'sche Methoden nicht überanstrengen?
Stimmt es, dass Bayes'sche Methoden nicht überanstrengen? (Ich habe einige Artikel und Tutorials gesehen, die diese Behauptung aufstellten.) Wenn wir beispielsweise einen Gaußschen Prozess auf MNIST anwenden (handschriftliche Ziffernklassifizierung), ihn aber nur als einzelnes Sample anzeigen, wird dann für Eingaben, die sich von diesem einzelnen Sample unterscheiden, die vorherige Verteilung …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.