Für ein gegebenes Inferenzproblem wissen wir, dass sich ein Bayes'scher Ansatz normalerweise sowohl in der Form unterscheidet als auch aus einem fequentistischen Ansatz resultiert. Frequentisten (in der Regel auch ich) weisen häufig darauf hin, dass für ihre Methoden keine vorherige Verwendung erforderlich ist und sie daher eher "datengesteuert" als "urteilsgesteuert" sind. Natürlich kann Bayesian auf nicht informative Prioritäten verweisen oder, pragmatisch, einfach einen wirklich diffusen Prior verwenden.
Mein Anliegen ist, besonders nachdem ich einen Hauch von Selbstgefälligkeit in Bezug auf meine fequentistische Objektivität verspürt habe, dass meine angeblich "objektiven" Methoden in einem Bayes'schen Rahmen formuliert werden können, wenn auch mit einem ungewöhnlichen Vorgänger- und Datenmodell. Bin ich in diesem Fall nur selig unwissend über den absurden Prior und das Modell, das meine frequentistische Methode impliziert ?
Wenn ein Bayesianer auf eine solche Formulierung hinweist, würde meine erste Reaktion lauten: "Schön, dass Sie das können, aber so denke ich nicht über das Problem!". Aber wen interessiert es, wie ich darüber denke oder wie ich es formuliere. Wenn meine Prozedur statistisch / mathematisch einem Bayes'schen Modell entspricht, führe ich implizit ( unabsichtlich !) Eine Bayes'sche Inferenz durch.
Aktuelle Frage unten
Diese Erkenntnis hat die Versuchung, selbstgefällig zu sein, erheblich untergraben. Aber ich bin mir nicht sicher , ob sein wahr , dass das Bayes - Paradigma all frequentistischen Verfahren aufnehmen kann (wieder, sofern die Bayes wählt eine geeignete vor und Wahrscheinlichkeit) . Ich weiß , das Gegenteil ist falsch.
Ich frage dies, weil ich kürzlich eine Frage zur bedingten Inferenz gestellt habe, die mich zu folgendem Artikel geführt hat : hier (siehe 3.9.5.3.9.6)
Sie weisen auf Basus bekanntes Ergebnis hin, dass es mehr als eine Zusatzstatistik geben kann, und werfen die Frage auf, welche "relevante Teilmenge" am relevantesten ist. Schlimmer noch, sie zeigen zwei Beispiele, bei denen die Anwesenheit anderer relevanter Teilmengen nicht beseitigt wird, selbst wenn Sie eine eindeutige Zusatzstatistik haben.
Sie kommen zu dem Schluss, dass nur Bayesianische Methoden (oder Methoden, die ihnen entsprechen) dieses Problem umgehen können, was eine problemlose bedingte Folgerung ermöglicht.
Es kann sein, dass Bayesian Stats Fequentist Stats nicht der Fall sind - das ist meine Frage an diese Gruppe hier. Es scheint jedoch, dass eine grundlegende Wahl zwischen den beiden Paradigmen weniger in der Philosophie als in den Zielen liegt: Benötigen Sie eine hohe bedingte Genauigkeit oder einen geringen bedingungslosen Fehler?
Eine hohe bedingte Genauigkeit scheint anwendbar zu sein, wenn wir eine einzelne Instanz analysieren müssen - wir möchten für DIESE bestimmte Schlussfolgerung richtig sein, obwohl diese Methode für den nächsten Datensatz möglicherweise nicht geeignet oder genau ist (Hyper-Konditionalität / Spezialisierung).
Ein geringer bedingungsloser Fehler ist angemessen, wenn wir in einigen Fällen bedingt falsche Schlussfolgerungen ziehen wollen, solange unser langfristiger Fehler minimiert oder kontrolliert wird. Ehrlich gesagt, nachdem ich das geschrieben habe, bin ich mir nicht sicher, warum ich das wollen würde, wenn ich nicht genug Zeit hätte und keine Bayes'sche Analyse machen könnte ... hmmm.
Ich neige dazu, likelihoodbasierte fequentistische Inferenz zu bevorzugen, da ich eine gewisse (asymptotische / ungefähre) Konditionalität von der Likelihood-Funktion habe, mich aber nicht mit Prioritäten herumschlagen muss Ich sehe den vorherigen Regularisierungsterm für kleine Stichprobeninferenzen.
Entschuldigung für die Seite. Jede Hilfe für mein Hauptproblem wird geschätzt.