Als «bayesian» getaggte Fragen

Die Bayes'sche Inferenz ist eine Methode der statistischen Inferenz, die darauf beruht, die Modellparameter als Zufallsvariablen zu behandeln und den Bayes'schen Satz anzuwenden, um subjektive Wahrscheinlichkeitsaussagen über die Parameter oder Hypothesen abzuleiten, abhängig vom beobachteten Datensatz.

2
Münzwurf, Entscheidungsprozesse und Informationswert
Stellen Sie sich folgendes Setup vor: Sie haben 2 Münzen, Münze A, die garantiert fair ist, und Münze B, die fair sein kann oder nicht. Sie werden aufgefordert, 100 Münzen zu werfen, und Ihr Ziel ist es, die Anzahl der Köpfe zu maximieren . Ihre vorherige Information über Münze B …

1
Gibt es eine Bayes'sche Interpretation für REML?
Gibt es eine Bayesianische Interpretation von REML? Meiner Intuition nach hat REML eine starke Ähnlichkeit mit sogenannten empirischen Bayes- Schätzverfahren, und ich frage mich, ob eine Art asymptotischer Äquivalenz (etwa unter einer geeigneten Klasse von Priors) nachgewiesen wurde. Sowohl empirische Bayes als auch REML scheinen als "kompromittierte" Schätzungsansätze zu gelten, …

1
Bayesianisches Lasso gegen Spitze und Platte
Frage: Was sind die Vor- und Nachteile einer vorherigen Verwendung für die Variablenauswahl? Angenommen , ich habe die Wahrscheinlichkeit: , wo ich setzen kann entweder eine der priors: oder: y∼N(Xw,σ2I)y∼N(Xw,σ2I)y\sim\mathcal{N}(Xw,\sigma^2I)wi∼πδ0+(1−π)N(0,100)π=0.9,wi∼πδ0+(1−π)N(0,100)π=0.9, w_i\sim \pi\delta_0+(1-\pi)\mathcal{N}(0,100)\\ \pi=0.9\,, wi∼exp(−λ|wi|)λ∼Γ(1,1).wi∼exp⁡(−λ|wi|)λ∼Γ(1,1). w_i\sim \exp(-\lambda|w_i|)\\ \lambda \sim \Gamma(1,1)\,. Ich setze , um zu betonen, dass die meisten Gewichte Null …

2
Wie arbeitet Naive Bayes mit kontinuierlichen Variablen?
Nach meinem (sehr grundlegenden) Verständnis schätzt Naive Bayes die Wahrscheinlichkeiten basierend auf den Klassenhäufigkeiten der einzelnen Merkmale in den Trainingsdaten. Aber wie berechnet es die Häufigkeit kontinuierlicher Variablen? Und wie klassifiziert es bei der Vorhersage eine neue Beobachtung, die möglicherweise nicht die gleichen Werte wie eine Beobachtung im Trainingssatz aufweist? …


2
Was ist Bayesian Deep Learning?
Was ist Bayesian Deep Learning und in welcher Beziehung steht es zur traditionellen Bayesianischen Statistik und zum traditionellen Deep Learning? Was sind die wichtigsten Konzepte und Mathematik? Kann ich sagen, dass es sich nur um nicht parametrische Bayes-Statistiken handelt? Was sind seine wegweisenden Arbeiten sowie seine aktuellen Hauptentwicklungen und -anwendungen? …

3
Optimierung der Hyperparameter: Zufallssuche vs. Bayes'sche Optimierung
Wir wissen also, dass die Zufallssuche besser funktioniert als die Rastersuche, aber ein neuerer Ansatz ist die Bayes'sche Optimierung (unter Verwendung von Gauß'schen Prozessen). Ich habe einen Vergleich zwischen den beiden nachgeschlagen und nichts gefunden. Ich weiß, dass sie bei Stanfords cs231n nur zufällige Suche erwähnen, aber es ist möglich, …


2
Aus einem frequentistischen Ergebnis einen Bayesianischen Prior machen
Wie sollte man ein frequentistisches Ergebnis in einen bayesianischen Prior verwandeln? Stellen Sie sich das folgende ziemlich allgemeine Szenario vor: In der Vergangenheit wurde ein Experiment durchgeführt und ein Ergebnis für einen Parameter ϕϕ\phi gemessen. Die Analyse wurde mit einer frequentistischen Methodik durchgeführt. Ein Konfidenzintervall für ϕϕ\phi ist in den …

1
Vorgabe der Effektgröße in der Metaanalyse
Meine Frage betrifft priors auf Effektgrößen, in meinem Projekt die Maßnahme Cohens . Durch das Lesen der Literatur scheint es, dass vage Prioritäten häufig verwendet werden, wie in den bekannten acht Schulen am Beispiel einer hierarchischen Bayes'schen Metaanalyse. Im Beispiel der acht Schulen habe ich ein vages Prior gesehen, das …

1
Bayes-Theorem mit mehreren Bedingungen
Ich verstehe nicht, wie diese Gleichung abgeleitet wurde. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|ich′)P(M2|ich′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Diese Gleichung stammt aus der Arbeit "Trial by Probability", in der der Fall von OJ Simpson als Beispielproblem angegeben wurde. Der Angeklagte wird wegen Doppelmordes vor Gericht gestellt und es werden zwei Beweise gegen ihn vorgelegt. ist …

1
Parameter gegen latente Variablen
Ich habe schon früher danach gefragt und mich wirklich schwer getan, herauszufinden, was einen Modellparameter ausmacht und was ihn zu einer latenten Variablen macht. Wenn man sich also verschiedene Themen zu diesem Thema auf dieser Website ansieht, scheint der Hauptunterschied zu sein: Latente Variablen werden nicht beobachtet, haben aber eine …


1
Hamilton-Monte-Carlo und diskrete Parameterräume
Ich habe gerade angefangen, Modelle in Stan zu bauen . Um mich mit dem Tool vertraut zu machen, arbeite ich mich durch einige der Übungen in Bayesian Data Analysis (2nd ed.). Die Waterbuck-Übung setzt voraus, dass die Daten , wobei ( N , θ ) unbekannt ist. Da Hamilton-Monte-Carlo keine …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.