Als «bayesian» getaggte Fragen

Die Bayes'sche Inferenz ist eine Methode der statistischen Inferenz, die darauf beruht, die Modellparameter als Zufallsvariablen zu behandeln und den Bayes'schen Satz anzuwenden, um subjektive Wahrscheinlichkeitsaussagen über die Parameter oder Hypothesen abzuleiten, abhängig vom beobachteten Datensatz.


3
Schätzung des Parameters einer gleichmäßigen Verteilung: falsch vor?
Wir haben N Proben, , aus einer gleichmäßigen Verteilung wobei unbekannt ist. Schätzen Sie aus den Daten.XiXiX_i[0,θ][0,θ][0,\theta]θθ\thetaθθ\theta Also, Bayes 'Regel ... f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(\theta | {X_i}) = \frac{f({X_i}|\theta)f(\theta)}{f({X_i})} und die Wahrscheinlichkeit ist: f(Xi|θ)=∏Ni=11θf(Xi|θ)=∏i=1N1θf({X_i}|\theta) = \prod_{i=1}^N \frac{1}{\theta} (bearbeiten: wenn für alle und 0 sonst - danke whuber)0≤Xi≤θ0≤Xi≤θ0 \le X_i \le \thetaiii aber ohne …

3
Übung 2.2 der Elemente des statistischen Lernens
Das Lehrbuch generiert zunächst einige 2-Klassen-Daten über: was gibt: und dann fragt es: Ich versuche dies zu lösen, indem ich dies zuerst mit diesem grafischen Modell modelliere: Dabei ist die Bezeichnung, der Index des ausgewählten Mittelwerts und der Datenpunkt. Dies wird gebenhcccm c h xh(1≤h≤10)h(1≤h≤10)h\,(1\le h \le 10)mchmhcm_h^cxxx Pr(x∣mch)=Pr(mch∣h,c=blue)=Pr(mch∣h,c=orange)=Pr(h)=Pr(c)=N(mch,I/5)N((1,0)T,I)N((0,1)T,I)11012Pr(x∣mhc)=N(mhc,I/5)Pr(mhc∣h,c=blue)=N((1,0)T,I)Pr(mhc∣h,c=orange)=N((0,1)T,I)Pr(h)=110Pr(c)=12 \begin{align*} …


4
Zeitdiskretes Ereignisverlaufsmodell (Überlebensmodell) in R.
Ich versuche, ein zeitdiskretes Modell in R einzubauen, bin mir aber nicht sicher, wie ich das machen soll. Ich habe gelesen, dass Sie die abhängige Variable in verschiedenen Zeilen organisieren können, eine für jede glmZeitbeobachtung , und die Funktion mit einem Logit- oder Cloglog-Link verwenden können. In diesem Sinne, ich …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

3
Winbugs und andere MCMC ohne Informationen zur vorherigen Verteilung
Was passiert, wenn Sie keine Vorstellung von der Parameterverteilung haben? Welchen Ansatz sollten wir verwenden? Meistens versuchen wir zu verstehen, ob eine bestimmte Variable Einfluss auf das Vorhandensein / Fehlen einer bestimmten Art hat und die Variable je nach Wichtigkeit der Variablen akzeptiert wird oder nicht. Dies bedeutet, dass wir …
10 r  bayesian  mcmc  bugs  winbugs 



1
R lineare Regression kategoriale Variable "versteckter" Wert
Dies ist nur ein Beispiel, auf das ich mehrmals gestoßen bin, daher habe ich keine Beispieldaten. Ausführen eines linearen Regressionsmodells in R: a.lm = lm(Y ~ x1 + x2) x1ist eine stetige Variable. x2ist kategorisch und hat drei Werte, z. B. "Niedrig", "Mittel" und "Hoch". Die von R gegebene Ausgabe …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

4
Wie kann ich bei einer 10D-MCMC-Kette deren posterioren Modus (e) in R bestimmen?
Frage: Nehmen wir an, ich bin bereit, Ihnen mit einer 10-dimensionalen MCMC-Kette eine Matrix der Zeichnungen zu übergeben: 100.000 Iterationen (Zeilen) mit 10 Parametern (Spalten). Wie kann ich die posterioren Modi am besten identifizieren? Ich beschäftige mich besonders mit mehreren Modi. Hintergrund:Ich betrachte mich als einen rechnerisch versierten Statistiker, aber …

1
Was ist probabilistische Programmierung?
Seit einem Jahr höre ich viel über PP-Frameworks ( Probabilistic Programming ) wie PyMC3 und Stan und wie großartig PP ist. Und heute hat mir jemand diesen Link mitgeteilt: Pyro: eine Deep Probabilistic Programming Language Ich verfolge jedoch nicht wirklich das Besondere daran, da es sich so anfühlt, als ob …


2
Identifizierbarkeit eines Zustandsraummodells (Dynamic Linear Model)
Nehmen Sie ein allgemeines lineares Gaußsches Zustandsraummodell (SSM) (auch bekannt als dynamisches lineares Modell DLM): Xt+1YVtWt=FXt+Vt=HXt+Wt∼N(0,Q)∼N(0,R)Xt+1=FXt+VtY=HXt+WtVt∼N(0,Q)Wt∼N(0,R)\begin{align} X_{t+1} &= FX_t + V_t \\ Y &= HX_t+W_t \\[10pt] V_t &\sim N(0,Q) \\ W_t &\sim N(0,R) \\ \end{align} Ich interessiere mich für die Unidentifizierbarkeitsprobleme im Zusammenhang mit diesen Modellen: Hamilton (1994) stellt fest, …

1
Warum konzentriert sich der Bayes'sche Posterior um den Minimierer der KL-Divergenz?
Betrachten Sie die Bayes - posterior θ∣Xθ∣X\theta\mid X . Asymptotisch tritt ihr Maximum bei der Schätzung MLE θ , der nur die Wahrscheinlichkeit maximiert argmin θθ^θ^\hat \thetaargminθfθ(X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) . Alle diese Konzepte - Bayesianische Prioritäten, die die Wahrscheinlichkeit maximieren - klingen super prinzipiell und überhaupt nicht willkürlich. Es ist kein …

2
Unsicherheitsschätzung bei hochdimensionalen Inferenzproblemen ohne Abtastung?
Ich arbeite an einem hochdimensionalen Inferenzproblem (ca. 2000 Modellparameter), für das wir eine MAP-Schätzung robust durchführen können, indem wir das globale Maximum des log-posterior unter Verwendung einer Kombination aus gradientenbasierter Optimierung und einem genetischen Algorithmus ermitteln. Ich würde sehr gerne in der Lage sein, zusätzlich zur MAP-Schätzung eine Schätzung der …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.