Als «bayesian» getaggte Fragen

Die Bayes'sche Inferenz ist eine Methode der statistischen Inferenz, die darauf beruht, die Modellparameter als Zufallsvariablen zu behandeln und den Bayes'schen Satz anzuwenden, um subjektive Wahrscheinlichkeitsaussagen über die Parameter oder Hypothesen abzuleiten, abhängig vom beobachteten Datensatz.

1
Kriterien für die Auswahl des „besten“ Modells in einem Hidden-Markov-Modell
Ich habe einen Zeitreihendatensatz, an den ich ein Hidden Markov Model (HMM) anpasse, um die Anzahl der latenten Zustände in den Daten abzuschätzen. Mein Pseudocode dafür ist der folgende: for( i in 2 : max_number_of_states ){ ... calculate HMM with i states ... optimal_number_of_states = "model with smallest BIC" ... …


1
Hierarchische Bayes'sche Modelle vs. empirische Bayes
Würden Sie das HBM vs EB als zwei Alternativen betrachten, bei denen die Hyperparameter "im Spiel" sind, abgetastet / geschätzt / etc. Zu werden? Es besteht eindeutig ein Zusammenhang zwischen diesen beiden. Würden Sie HBM als "voll Bayesianer" betrachten als EB? Gibt es einen Ort, an dem ich sehen kann, …

5
Argumentieren die Bayesianer jemals, dass es Fälle gibt, in denen ihr Ansatz den frequentistischen Ansatz verallgemeinert / überschneidet?
Argumentieren Bayesianer jemals, dass ihr Ansatz den frequentistischen Ansatz verallgemeinert, weil man nicht-informative Prioritäten verwenden und daher eine typische frequentistische Modellstruktur wiederherstellen kann? Kann mich jemand an einen Ort verweisen, an dem ich über dieses Argument lesen kann, wenn es tatsächlich verwendet wird? EDIT: Diese Frage ist vielleicht nicht genau …


1
Gibt es einen Zusammenhang zwischen empirischen Bayes und zufälligen Effekten?
Ich habe kürzlich etwas über empirische Bayes gelesen (Casella, 1985, Eine Einführung in die empirische Bayes-Datenanalyse) und es sah einem Zufallseffektmodell sehr ähnlich. dass beide Schätzungen auf den globalen Mittelwert geschrumpft sind. Aber ich habe es nicht durchgelesen ... Hat jemand einen Einblick in die Ähnlichkeit und Unterschiede zwischen ihnen?


2
Wann sollte man Bootstrap vs. Bayes'sche Technik anwenden?
Ich habe ein ziemlich kompliziertes Problem mit der Entscheidungsanalyse, das Zuverlässigkeitstests beinhaltet, und der logische Ansatz (für mich) scheint die Verwendung von MCMC zur Unterstützung einer Bayes'schen Analyse zu beinhalten. Es wurde jedoch vorgeschlagen, einen Bootstrapping-Ansatz zu verwenden. Könnte jemand eine Referenz (oder drei) vorschlagen, die die Verwendung einer der …

2
Hierarchisches Bayes'sches Modell (?)
Bitte entschuldigen Sie, dass ich den statistischen Jargon abgeschlachtet habe :) Ich habe hier einige Fragen zu Werbung und Klickraten gefunden. Aber keiner von ihnen hat mir sehr geholfen, meine hierarchische Situation zu verstehen. Es gibt eine verwandte Frage. Handelt es sich bei diesen äquivalenten Darstellungen um dasselbe hierarchische Bayes'sche …

1
Schritte, um eine posteriore Verteilung herauszufinden, wenn es einfach genug sein könnte, eine analytische Form zu haben?
Dies wurde auch bei Computational Science gefragt . Ich versuche, eine Bayes'sche Schätzung einiger Koeffizienten für eine Autoregression mit 11 Datenproben zu berechnen: wobei ist Gauß mit Mittelwert 0 und Varianz Die vorherige Verteilung auf dem Vektor ist Gauß mit Mittelwert und einer diagonalen Kovarianzmatrix mit diagonale Einträge gleich .Yi=μ+α⋅Yi−1+ϵiYi=μ+α⋅Yi−1+ϵi …

2
Was sollte ich über das Entwerfen eines guten Hybrid / Hamilton-Monte-Carlo-Algorithmus wissen?
Ich entwerfe einen hybriden Monte-Carlo- Abtastalgorithmus für PyMC und versuche, ihn so unkompliziert und allgemein wie möglich zu gestalten. Daher suche ich nach guten Ratschlägen für den Entwurf eines HMC-Algorithmus. Ich habe Radfords Umfragekapitel gelesen und Beskos et. In dem kürzlich erschienenen Artikel von al. zur optimalen (schrittweisen) Abstimmung von …


2
Wie parametriere ich das Verhältnis zweier normalverteilter Variablen oder die Umkehrung einer Variablen?
Problem: Ich parametrisiere Verteilungen zur Verwendung als Prioritäten und Daten in einer Bayes'schen Metaanalyse. Die Daten werden in der Literatur als zusammenfassende Statistiken bereitgestellt, von denen fast ausschließlich angenommen wird, dass sie normal verteilt sind (obwohl keine der Variablen <0 sein kann, einige Verhältnisse sind, andere Massen sind und usw.). …

2
Warum werden in der Bayes'schen Folgerung einige Begriffe aus der posterioren Vorhersage gestrichen?
In Kevin Murphys Conjugate Bayesian-Analyse der Gaußschen Verteilung schreibt er, dass die posteriore prädiktive Verteilung ist p(x∣D)=∫p(x∣θ)p(θ∣D)dθp(x∣D)=∫p(x∣θ)p(θ∣D)dθ p(x \mid D) = \int p(x \mid \theta) p(\theta \mid D) d \theta Dabei ist die Daten, an die das Modell angepasst ist, und sind unsichtbare Daten. Was ich nicht verstehe ist, warum …

3
Jeffreys Prior für die Normalverteilung mit unbekanntem Mittelwert und unbekannter Varianz
Ich lese über frühere Verteilungen und habe Jeffreys zuvor für eine Stichprobe normalverteilter Zufallsvariablen mit unbekanntem Mittelwert und unbekannter Varianz berechnet. Nach meinen Berechnungen gilt für Jeffreys Prior Folgendes: p(μ,σ2)=det(I)−−−−−√=det(1/σ2001/(2σ4))−−−−−−−−−−−−−−−−−−√=12σ6−−−−√∝1σ3.p(μ,σ2)=det(I)=det(1/σ2001/(2σ4))=12σ6∝1σ3. p(\mu,\sigma^2)=\sqrt{det(I)}=\sqrt{det\begin{pmatrix}1/\sigma^2 & 0 \\ 0 & 1/(2\sigma^4)\end{pmatrix}}=\sqrt{\frac{1}{2\sigma^6}}\propto\frac{1}{\sigma^3}. HierIIIFischers Informationsmatrix. Ich habe jedoch auch Veröffentlichungen und Dokumente gelesen, in denen es …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.