Als «bayesian» getaggte Fragen

Die Bayes'sche Inferenz ist eine Methode der statistischen Inferenz, die darauf beruht, die Modellparameter als Zufallsvariablen zu behandeln und den Bayes'schen Satz anzuwenden, um subjektive Wahrscheinlichkeitsaussagen über die Parameter oder Hypothesen abzuleiten, abhängig vom beobachteten Datensatz.

2
Warum ist das Problem der Unordnung bei großen Stichproben nicht zu lösen?
Angenommen, wir haben eine Menge von Punkten y={y1,y2,…,yN}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \} . Jeder Punkt wird unter Verwendung der Verteilung p ( y i | x ) = 1 erzeugtyiyiy_ip(yi|x)=12N(x,1)+12N(0,10).p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 \mathcal{N}(x, 1) + \frac12 \mathcal{N}(0, 10). Um posterior fürxxx, schreiben wir p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x).p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x). p(x| \mathbf{y}) …

1
Helfen Sie mir, die
Ich versuche hier ein Bayesianisches Logit der Daten durchzuführen . Ich verwende bayesglm()in dem armPaket in R. Die Codierung ist einfach genug: df = read.csv("http://dl.dropbox.com/u/1791181/bayesglm.csv", header=T) library(arm) model = bayesglm(PASS ~ SEX + HIGH, family=binomial(link="logit"), data=df) summary(model) gibt die folgende Ausgabe aus: Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) …
13 r  bayesian  p-value 

1
Regularisierte bayesianische logistische Regression in JAGS
Es gibt mehrere mathematisch anspruchsvolle Artikel, die das Bayes'sche Lasso beschreiben, aber ich möchte getesteten, korrekten JAGS-Code, den ich verwenden kann. Könnte jemand einen Beispiel-BUGS / JAGS-Code veröffentlichen, der eine regulierte logistische Regression implementiert? Jedes Schema (L1, L2, Elasticnet) wäre toll, aber Lasso wird bevorzugt. Ich frage mich auch, ob …


5
R nur Alternativen zu BUGS [geschlossen]
Geschlossen. Diese Frage ist nicht zum Thema . Derzeit werden keine Antworten akzeptiert. Möchten Sie diese Frage verbessern? Aktualisieren Sie die Frage so dass es beim Thema für Kreuz Validated. Geschlossen 11 Monate . Ich besuche einen Kurs zur Bayes'schen Statistik mit BUGS und R. Nun, ich kenne BUGS bereits, …
13 r  bayesian  bugs 

1
Bieten Wahrscheinlichkeitsverhältnisse und Bayes'scher Modellvergleich überlegene und ausreichende Alternativen zu Nullhypothesentests?
Als Reaktion auf eine wachsende Zahl von Statistikern und Forschern, die den Nutzen von Nullhypothesentests (NHT) für die Wissenschaft als kumulatives Unterfangen kritisieren, hat die Task Force für statistische Inferenz der American Psychological Association ein völliges Verbot von NHT vermieden, aber stattdessen vorgeschlagen, dass Forscher geben die Effektgrößen zusätzlich zu …

1
Kann ich die MCMC-Konvergenzdiagnose halbautomatisch durchführen, um die Einbrennlänge festzulegen?
Ich möchte die Auswahl des Einbrennens für eine MCMC-Kette automatisieren, z. B. durch Entfernen der ersten n Zeilen basierend auf einer Konvergenzdiagnose. Inwieweit kann dieser Schritt sicher automatisiert werden? Selbst wenn ich die Autokorrelation, die mcmc-Ablaufverfolgung und die pdfs noch zweimal überprüfe, wäre es schön, wenn die Auswahl der Einbrennlänge …
13 r  bayesian  mcmc 

3
MCMC verstehen: Was wäre die Alternative?
Bayesianische Statistiken zum ersten Mal lernen; Als ein Winkel zum Verständnis von MCMC fragte ich mich: Ist es etwas, was grundsätzlich nicht anders zu machen ist, oder ist es einfach viel effizienter als die Alternativen? Nehmen wir zur Veranschaulichung an, wir versuchen, die Wahrscheinlichkeit unserer Parameter zu berechnen, wenn die …
13 bayesian  mcmc 

1
Warum ist der naive Bayes-Klassifikator für einen 0: 1-Verlust optimal?
Der Naive Bayes-Klassifikator ist der Klassifikator, der Elemente einer Klasse auf der Grundlage der Maximierung des hinteren für die Klassenzugehörigkeit zuordnet und davon ausgeht, dass die Merkmale der Elemente unabhängig sind.C P ( C | x )xxxCCCP( C| x)P(C|x)P(C|x) Der 0-1-Verlust ist der Verlust, der einer Fehlklassifizierung einen Verlust von …


2
Kovarianzfunktionen oder Kernel - was genau sind sie?
Ich bin ziemlich neu auf dem Gebiet der Gaußschen Prozesse und wie sie im maschinellen Lernen angewendet werden. Ich lese und höre immer wieder, dass die Kovarianzfunktionen die Hauptattraktion dieser Methoden sind. Könnte jemand auf intuitive Weise erklären, was in diesen Kovarianzfunktionen vor sich geht? Andernfalls, wenn Sie auf ein …

1
Grenzwahrscheinlichkeit aus der Gibbs-Ausgabe
Ich reproduziere die Ergebnisse in Abschnitt 4.2.1 von Grund auf Grenzwahrscheinlichkeit aus der Gibbs-Ausgabe Siddhartha Chib Journal of the American Statistical Association, Bd. 90, Nr. 432 (Dez. 1995), S. 1313-1321. Es ist eine Mischung aus Normalmodellen mit einer bekannten Anzahl von Komponenten. k ≥ 1k≥1k\geq 1f( x ≤ w , …

2
Warum sollte für die hierarchische logistische Regression eine Beta-Verteilung für den Bernoulli-Parameter verwendet werden?
Ich lese gerade Kruschkes hervorragendes Buch "Doing Bayesian Data Analysis". Das Kapitel über hierarchische logistische Regression (Kapitel 20) ist jedoch etwas verwirrend. Abbildung 20.2 beschreibt eine hierarchische logistische Regression, bei der der Bernoulli-Parameter als lineare Funktion der durch eine Sigmoidfunktion transformierten Koeffizienten definiert ist. Dies scheint die Art und Weise …



Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.