Ich beziehe mich auf diesen Artikel: http://www.nytimes.com/2011/01/11/science/11esp.html
Betrachten Sie das folgende Experiment. Angenommen, es besteht Grund zu der Annahme, dass eine Münze leicht gegen die Köpfe gewichtet ist. In einem Test kommt die Münze 527-mal aus 1.000 heraus.
Ist dies ein wichtiger Beweis dafür, dass die Münze gewichtet ist?
Klassische Analyse sagt ja. Mit einer fairen Münze ist die Wahrscheinlichkeit, mit 1.000 Flips 527 oder mehr Köpfe zu erzielen, geringer als 1 zu 20 oder 5 Prozent des herkömmlichen Cutoffs. Anders ausgedrückt: Das Experiment findet Hinweise auf eine gewichtete Münze „mit 95-prozentigem Vertrauen“.
Doch viele Statistiker kaufen es nicht. Einer von 20 ist die Wahrscheinlichkeit, in 1.000 Würfen eine beliebige Anzahl von Köpfen über 526 zu erhalten. Das heißt, es ist die Summe der Wahrscheinlichkeit des Kippens 527, der Wahrscheinlichkeit des Kippens 528, 529 und so weiter.
Das Experiment fand jedoch nicht alle Zahlen in diesem Bereich. Es ist daher genauer, sagen diese Experten, die Wahrscheinlichkeit zu berechnen, diese eine Zahl zu erhalten - 527 -, wenn die Münze gewichtet ist, und sie mit der Wahrscheinlichkeit zu vergleichen, die gleiche Zahl zu erhalten, wenn die Münze ist Messe.
Statistiker können nachweisen, dass dieses Verhältnis nicht höher als etwa 4 zu 1 sein kann, so der Statistiker Paul Speckman, der zusammen mit dem Psychologen Jeff Rouder das Beispiel lieferte.
Erste Frage: Das ist neu für mich. Hat jemand eine Referenz, wo ich die genaue Berechnung finden kann und / oder können SIE mir helfen, indem Sie mir die genaue Berechnung selbst geben, und / oder können Sie mich auf ein Material verweisen, in dem ich ähnliche Beispiele finden kann?
Bayes entwickelte eine Methode, um die Wahrscheinlichkeit für eine Hypothese zu aktualisieren, sobald neue Beweise vorliegen.
Bei der Bewertung der Stärke eines bestimmten Befundes berücksichtigt die Bayes'sche Analyse (ausgesprochen BAYZ-ee-un) bekannte Wahrscheinlichkeiten, sofern verfügbar, von außerhalb der Studie.
Man könnte es den "Ja, richtig" -Effekt nennen. Wenn eine Studie feststellt, dass Kumquats das Risiko für Herzerkrankungen um 90 Prozent senken, dass eine Behandlung in einer Woche die Alkoholsucht heilt und dass sensible Eltern doppelt so häufig ein Mädchen wie einen Jungen zur Welt bringen, entspricht die Bayes'sche Reaktion der von Der einheimische Skeptiker: Ja, richtig. Die Studienergebnisse werden gegen das abgewogen, was in der Welt zu beobachten ist.
In mindestens einem Bereich der Medizin - diagnostischen Screening-Tests - nutzen Forscher bereits bekannte Wahrscheinlichkeiten, um neue Erkenntnisse auszuwerten. Ein neuer Lügendetektionstest kann beispielsweise zu 90 Prozent genau sein und 9 von 10 Lügnern korrekt markieren. Aber wenn es einer Bevölkerung von 100 Personen gegeben wird, von denen bereits bekannt ist, dass sie 10 Lügner umfassen, ist der Test viel weniger beeindruckend.
Es identifiziert 9 der 10 Lügner korrekt und übersieht einen; aber es identifiziert fälschlicherweise 9 der anderen 90 als liegend. Teilen Sie die so genannten True Positives (9) durch die Gesamtzahl der markierten Personen (18), so ergibt sich eine Genauigkeitsrate von 50 Prozent. Die "falsch positiven" und "falsch negativen" Werte hängen von den bekannten Raten in der Bevölkerung ab.
Zweite Frage: Wie beurteilen Sie mit dieser Methode genau, ob ein neuer Befund "echt" ist oder nicht? Und: Ist das nicht so willkürlich wie die 5% -Barriere, weil eine voreingestellte vorherige Wahrscheinlichkeit verwendet wird?