Kann jemand einen guten Überblick über die Unterschiede zwischen der bayesianischen und der frequentistischen Herangehensweise an die Wahrscheinlichkeit geben?
Von dem, was ich verstehe:
Nach Ansicht der Frequentisten handelt es sich bei den Daten um eine wiederholbare Zufallsstichprobe (Zufallsvariable) mit einer bestimmten Häufigkeit / Wahrscheinlichkeit (die als relative Häufigkeit eines Ereignisses definiert wird, wenn sich die Anzahl der Versuche der Unendlichkeit nähert). Die zugrunde liegenden Parameter und Wahrscheinlichkeiten bleiben während dieses wiederholbaren Prozesses konstant und die Variation beruht auf der Variabilität in und nicht auf der Wahrscheinlichkeitsverteilung (die für ein bestimmtes Ereignis / einen bestimmten Prozess festgelegt ist).
Die Bayes'sche Sicht ist, dass die Daten festgelegt sind, während sich die Häufigkeit / Wahrscheinlichkeit für ein bestimmtes Ereignis ändern kann, was bedeutet, dass sich die Parameter der Verteilung ändern. Tatsächlich ändern die von Ihnen abgerufenen Daten die vorherige Verteilung eines Parameters, der für jeden Datensatz aktualisiert wird.
Für mich scheint der Ansatz des Frequentismus praktischer / logischer zu sein, da es vernünftig erscheint, dass Ereignisse eine bestimmte Wahrscheinlichkeit haben und die Abweichung in unserer Stichprobe liegt.
Darüber hinaus werden die meisten Datenanalysen aus Studien in der Regel nach dem Prinzip der Häufigkeitsanalyse (z. B. Konfidenzintervalle, Hypothesentests mit p-Werten usw.) durchgeführt, da dies leicht verständlich ist.
Ich habe mich nur gefragt, ob mir jemand eine kurze Zusammenfassung ihrer Interpretation des bayesianischen vs. frequentistischen Ansatzes geben kann, einschließlich der bayesianischen statistischen Äquivalente des frequentistischen p-Wertes und des Konfidenzintervalls. Darüber hinaus werden spezielle Beispiele dafür gewürdigt, wo ein Verfahren dem anderen vorzuziehen wäre.