Während ich gerne denke, dass ich das Konzept der Vorinformationen in der statistischen Analyse und Entscheidungsfindung von Bayes gut verstehe, habe ich oft Probleme, mich mit seiner Anwendung zu befassen. Ich denke an einige Situationen, die meine Kämpfe veranschaulichen, und ich habe das Gefühl, dass sie in den Bayes'schen statistischen Lehrbüchern, die ich bisher gelesen habe, nicht richtig angesprochen werden:
Nehmen wir an, ich habe vor einigen Jahren eine Umfrage durchgeführt, die besagt, dass 68% der Menschen am Kauf eines ACME-Produkts interessiert wären. Ich beschließe, die Umfrage erneut durchzuführen. Während ich die gleiche Stichprobengröße wie beim letzten Mal verwenden werde (z. B. n = 400), haben sich die Meinungen der Leute wahrscheinlich seitdem geändert. Wenn ich jedoch als Vorgänger eine Beta-Distribution verwende, in der 272 von 400 Befragten mit "Ja" geantwortet haben, würde ich der Umfrage, die ich vor einigen Jahren durchgeführt habe, und der Umfrage, die ich jetzt durchführen würde, das gleiche Gewicht beimessen. Gibt es eine Faustregel, um die größere Unsicherheit festzustellen, die ich aufgrund der Tatsache, dass diese Daten einige Jahre alt sind, auf den Prior setzen möchte? Ich verstehe, dass ich den Prior von 272/400 auf beispielsweise 136/200 reduzieren kann, aber das fühlt sich äußerst willkürlich an, und ich frage mich, ob es irgendeine Form von Rechtfertigung gibt, vielleicht in der Literatur.
Nehmen wir als weiteres Beispiel an, wir führen gerade eine klinische Studie durch. Vor dem Start der Studie führen wir einige Sekundäruntersuchungen durch, die wir als Vorinformationen verwenden können, einschließlich Expertenmeinungen, Ergebnissen früherer klinischer Studien (von unterschiedlicher Relevanz), anderer grundlegender wissenschaftlicher Fakten usw. Wie wird dieses Informationsspektrum kombiniert? (von denen einige nicht quantitativer Natur sind) zu einer vorherigen Wahrscheinlichkeitsverteilung? Geht es nur darum, eine Entscheidung darüber zu treffen, welche Familie ausgewählt und diffus genug gemacht werden soll, um sicherzustellen, dass sie von den Daten überfordert wird, oder wird viel Arbeit geleistet, um eine ziemlich informative vorherige Verteilung zu erreichen?