Als «bayesian» getaggte Fragen

Die Bayes'sche Inferenz ist eine Methode der statistischen Inferenz, die darauf beruht, die Modellparameter als Zufallsvariablen zu behandeln und den Bayes'schen Satz anzuwenden, um subjektive Wahrscheinlichkeitsaussagen über die Parameter oder Hypothesen abzuleiten, abhängig vom beobachteten Datensatz.

2
Posteriore prädiktive Verteilung gegen MAP-Schätzung
Betrachten Sie einen Trainingsdatensatz , ein durch parametrisiertes Wahrscheinlichkeitsmodell und ein vorheriges P (\ theta) . Für einen neuen Datenpunkt x ^ * können wir P (x ^ *) berechnen mit:XXXθθ\thetaP(θ)P(θ)P(\theta)x∗x∗x^*P(x∗)P(x∗)P(x^*) ein vollständig bayesianischer Ansatz: die posteriore Vorhersageverteilung P(x∗|X)=∫P(θ|X)P(x∗|θ)dθP(x∗|X)=∫P(θ|X)P(x∗|θ)dθP(x^* | X) = \int P(\theta|X) P(x^*|\theta) d\theta die Wahrscheinlichkeit, die durch …

1
Nichtparametrische nichtlineare Regression mit Vorhersageunsicherheit (neben Gaußschen Prozessen)
Was sind die neuesten Alternativen zu Gaußschen Prozessen (GP) für nichtparametrische nichtlineare Regression mit Vorhersageunsicherheit, wenn die Größe des Trainingssatzes für Vanille-Allgemeinmediziner unerschwinglich wird, aber immer noch nicht sehr groß ist? Details meines Problems sind: Der Eingaberaum ist niedrigdimensional (X⊆RdX⊆Rd\mathcal{X} \subseteq \mathbb{R}^dmit 2≤d≤202≤d≤202\le d \le 20) Ausgabe ist reellwertig (Y⊆RY⊆R\mathcal{Y} …


1
Was verursacht Autokorrelation im MCMC-Sampler?
Bei der Durchführung einer Bayes'schen Analyse ist die Autokorrelation der MCMC-Proben zu überprüfen. Aber ich verstehe nicht, was diese Autokorrelation verursacht. Hier sagen sie das Proben mit hoher Autokorrelation [von MCMC] werden häufig durch starke Korrelationen zwischen Variablen verursacht. Ich frage mich, was andere Ursachen für Proben mit hoher Autokorrelation …

2
Auswahl vorheriger Parameter für die Variationsmischung von Gaußschen
Ich implementiere eine Vanille-Variationsmischung aus multivariaten Gaußschen gemäß Kapitel 10 von Mustererkennung und maschinelles Lernen (Bishop, 2007). Der Bayes'sche Ansatz erfordert die Angabe von (Hyper-) Parametern für den Gauß'schen inversen Wishart vor: α0α0\alpha_0 (Konzentrationsparameter des Dirichlet-Prior); ν0ν0\nu_0 (Freiheitsgrade einer inversen Wishart-Verteilung); β0β0\beta_0 (Pseudobeobachtungen für die Gauß-inverse Wishart-Verteilung); m0m0\mathbf{m}_0 (Mittelwert der …

2
Ist der Bootstrap in einer Bayes'schen Umgebung unbrauchbar?
Soweit ich weiß, ist Bootstrapping in einer Frequentist-Umgebung unglaublich nützlich. In frequentistischen Statistiken: Wir versuchen, langfristige Wahrscheinlichkeiten abzuschätzen. In der Praxis haben wir nicht unendlich viele Proben. Mit dem Bootstrap können wir unendlich viele Re-Samples simulieren. Soweit ich weiß, ist dies wahrscheinlich das nützlichste Werkzeug in der Statistik der Frequentisten. …

3
Warum erfolgt die Probenahme aus der posterioren prädiktiven Verteilung?
In einem Bayes'schen Modell wird die posteriore Vorhersageverteilung normalerweise wie folgt geschrieben: p (xn e w∣x1, …xn) =∫∞- ∞p (xn e w∣ μ ) p ( μ ∣ x1, …xn) dμp(xnew∣x1,…xn)=∫- -∞∞p(xnew∣μ) p(μ∣x1,…xn)dμ p(x_{new} \mid x_1, \ldots x_n) = \int_{-\infty}^{\infty} p(x_{new}\mid \mu) \ p(\mu \mid x_1, \ldots x_n)d\mu für einen …
7 bayesian  mcmc  gibbs 

3
Dirichlet-konjugierte Update-Ableitung
Ich versuche, die Aktualisierungsgleichungen für das Konjugat an die Dirichlet-Verteilung abzuleiten, wie hier beschrieben: /mathpro/20399/conjugate-prior-of-the-dirichlet-distribution Die von mir berechnete Parameteraktualisierungsgleichung stimmt jedoch nicht mit der dort vorgeschlagenen überein. Meine Ableitung ist unten dargestellt: where, f(θ|α)=Dir(θ|α)=1B(α)exp(ϕ(α)Tu(θ))f(θ|α)=Dir(θ|α)=1B(α)exp⁡(ϕ(α)Tu(θ))\begin{align} f({\theta}|{\alpha}) &= Dir({\theta}|{\alpha})\\ &=\frac{1}{B({\alpha})}\exp(\phi({\alpha})^{T}u({\theta})) \end{align}ϕ(α)Tu(θ)B(α)=[α1−1,⋯,αK−1]=[ln(θ1),⋯,ln(θK)]T=∏Ki=1Γ(αi)Γ(∑Ki=1αi)ϕ(α)T=[α1−1,⋯,αK−1]u(θ)=[ln⁡(θ1),⋯,ln⁡(θK)]TB(α)=∏i=1KΓ(αi)Γ(∑i=1Kαi)\begin{align} \phi({\alpha})^{T} &= [\alpha_1-1,\cdots,\alpha_K-1]\\ u({\theta}) &= [\ln(\theta_1),\cdots,\ln(\theta_K)]^{T}\\ B({\alpha}) &= \frac{\prod_{i=1}^{K}\Gamma(\alpha_i)}{\Gamma\left(\sum_{i=1}^{K}\alpha_i\right)} \end{align} …

1
Bayesianische vs. Frequentist-Berechnungsschritte
Dieser Artikel enthält ein Beispiel für Bayesianische vs. Frequentistische Philosophien. Ein altes Medikament behandelt erfolgreich 70% der Patienten. Um ein neues Medikament zu testen, geben Forscher es 100 Patienten, von denen sich 83 erholen. Wie sicher sollten wir auf der Grundlage dieser Beweise sein, dass das neue Medikament schlechter als, …

1
Wie kann ein Algorithmus zur Vorhersage von Zeitreihen am besten bewertet werden?
Was ist die beste Vorgehensweise zum Trainieren und Bewerten eines Vorhersagealgorithmus für eine Zeitreihe? Zum Lernen von Algorithmen, die im Batch-Modus trainiert werden, kann ein naiver Programmierer den Rohdatensatz [(sample, expected prediction),...]direkt an die train()Methode des Algorithmus weitergeben . Dies zeigt normalerweise eine künstlich hohe Erfolgsrate, da der Algorithmus effektiv …


2
Verstehe ich die Unterschiede zwischen Bayes'scher und frequentistischer Folgerung richtig?
Bei einer Folge unabhängiger Experimente, deren Ergebnis entweder Erfolg oder Misserfolg ist, liegt die Erfolgswahrscheinlichkeit bei einer Zahl p zwischen 0 und 1 : Ein Bayesianer würde die Ergebnisse der k Experimente fest betrachten, während p zufällig wäre, dann eine vorherige Verteilung auf p annehmen und dann eine hintere Verteilung …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.