Es gibt nichts Schöneres, als eine wirklich alte Frage zu beantworten, aber hier ist es ....
p-Werte sind fast gültige Hypothesentests. Dies ist ein leicht angepasster Auszug aus Jaynes 'Wahrscheinlichkeitstheorie-Buch von 2003 (Repetitive Experimente: Wahrscheinlichkeit und Häufigkeit). Angenommen, wir haben eine Nullhypothese , die wir testen möchten. Wir haben Daten D und Vorinformationen ich . Angenommen, es gibt eine nicht spezifizierte Hypothese H A , gegen die wir H 0 testen werden . Das hintere Quotenverhältnis für H A gegen H 0 ist dann gegeben durch:H0DichHEINH0HAH0
P(HA|DI)P(H0|DI)=P(HA|I)P(H0|I)×P(D|HAI)P(D|H0I)
Jetzt ist der erste Term auf der rechten Seite unabhängig von den Daten, sodass die Daten das Ergebnis nur über den zweiten Term beeinflussen können. Jetzt können wir immer eine alternative Hypothese erfinden , bei der P ( D | H A I ) = 1 ist - eine "perfekte Anpassung" -Hypothese. Somit können wir 1 verwendenHAP(D|HAI)=1 als Maß dafür, wie gut die Daten eine alternative Hypothese über die Null stützen könnten. Es gibt keine alternative Hypothese, dass die Daten überH0um mehr als1stützen könnten1P(D|H0I)H0 . Wir können auch die Klasse der Alternativen einschränken, und die Änderung besteht darin, dass die1durch die maximale Wahrscheinlichkeit (einschließlich Normalisierungskonstanten) innerhalb dieser Klasse ersetzt wird. WennP(D|H0I)zu klein wird, beginnen wir an der Null zu zweifeln, weil die Anzahl der Alternativen zwischenH0undHAzunimmt (einschließlich einiger mit nicht zu vernachlässigenden vorherigen Wahrscheinlichkeiten). Aber das ist so ziemlich das, was mit p-Werten gemacht wird, aber mit einer Ausnahme: Wir berechnen nicht die Wahrscheinlichkeit fürt(1P(D|H0I)1P(D|H0I)H0HA für irgendeine Statistik t ( D ) und irgendeine "schlechte" Region der Statistik. Wir berechnen die Wahrscheinlichkeit für D - die Information, die wir tatsächlich haben, und nicht eine Teilmenge davon, t ( D ) .t(D)>t0t(D)Dt(D)
D≡{x1,…,xN}xi∼Normal(μ,σ2)IH0:μ=μ0. Dann haben wir nach einer kleinen Rechnung:
P(D|H0I)=(2πσ2)−N2exp(−N[s2+(x¯¯¯−μ0)2]2σ2)
x¯¯¯=1N∑Ni=1xis2=1N∑Ni=1(xi−x¯¯¯)2P(D|H0I)μ0=x¯¯¯
P(D|HAI)=(2πσ2)−N2exp(−Ns22σ2)
Also nehmen wir das Verhältnis dieser beiden und wir erhalten:
P(D|HAI)P(D|H0I)=(2πσ2)−N2exp(−Ns22σ2)(2πσ2)−N2exp(−Ns2+N(x¯¯¯−μ0)22σ2)=exp(z22)
z=N−−√x¯¯¯−μ0σ|z|x¯¯¯
x¯¯¯X¯¯¯¯∼Normal(μ,σ2N)X¯¯¯¯x¯¯¯|X¯¯¯¯−μ0||X¯¯¯¯−μ0|≥|x¯¯¯−μ0|
p-value=P(|X¯¯¯¯−μ0|≥|x¯¯¯−μ0||H0)
=1−P[−N−−√|x¯¯¯−μ0|σ≤N−−√X¯¯¯¯−μ0σ≤N−−√|x¯¯¯−μ0|σ|H0]
=1−P(−|z|≤Z≤|z||H0)=2[1−Φ(|z|)]
|z|
Obwohl beide in diesem Beispiel einfach zu bewerkstelligen sind, sind sie in komplizierteren Fällen nicht immer so einfach. In einigen Fällen kann es einfacher sein, die richtige Statistik auszuwählen und deren Stichprobenverteilung zu berechnen. In anderen Fällen ist es möglicherweise einfacher, die Klasse der Alternativen zu definieren und über diese Klasse zu maximieren.
Dieses einfache Beispiel erklärt eine große Menge von p-Wert-basierten Tests, einfach weil so viele Hypothesentests von der "ungefähr normalen" Art sind. Es bietet auch eine ungefähre Antwort auf Ihr Münzproblem (unter Verwendung der normalen Annäherung an das Binom). Es zeigt auch, dass p-Werte Sie in diesem Fall nicht in die Irre führen, zumindest was das Testen einer einzelnen Hypothese angeht. In diesem Fall kann man sagen, dass ein p-Wert ein Beweismaß gegen die Nullhypothese ist.
0.193.870.05196.830.12.330.052.78