Ich versuche die folgende Frage zu lösen:
Spieler A hat 17 von 25 Spielen gewonnen, während Spieler B 8 von 20 Spielen gewonnen hat. Gibt es einen signifikanten Unterschied zwischen beiden Verhältnissen?
Das, was in R zu tun ist, ist das Folgende:
> prop.test(c(17,8),c(25,20),correct=FALSE)
2-sample test for equality of proportions without continuity correction
data: c(17, 8) out of c(25, 20)
X-squared = 3.528, df = 1, p-value = 0.06034
alternative hypothesis: two.sided
95 percent confidence interval:
-0.002016956 0.562016956
sample estimates:
prop 1 prop 2
0.68 0.40
Dieser Test besagt also, dass der Unterschied bei einem Konfidenzniveau von 95% nicht signifikant ist.
Da wir wissen, dass prop.test()
nur eine Näherung verwendet wird, möchte ich die Dinge mit einem exakten Binomialtest genauer machen - und das in beide Richtungen:
> binom.test(x=17,n=25,p=8/20)
Exact binomial test
data: 17 and 25
number of successes = 17, number of trials = 25, p-value = 0.006693
alternative hypothesis: true probability of success is not equal to 0.4
95 percent confidence interval:
0.4649993 0.8505046
sample estimates:
probability of success
0.68
> binom.test(x=8,n=20,p=17/25)
Exact binomial test
data: 8 and 20
number of successes = 8, number of trials = 20, p-value = 0.01377
alternative hypothesis: true probability of success is not equal to 0.68
95 percent confidence interval:
0.1911901 0.6394574
sample estimates:
probability of success
0.4
Das ist doch komisch, oder? Die p-Werte sind jedes Mal völlig unterschiedlich! In beiden Fällen sind die Ergebnisse jetzt (hoch) signifikant, aber die p-Werte scheinen eher willkürlich herumzuspringen.
Meine Fragen
- Warum sind die p-Werte , dass jedes Mal anders?
- Wie führe ich einen Binomialtest mit genau zwei Stichprobenproportionen in R korrekt durch?
prop.test
vschisq.test
), handelt es sich bei dieser Frage um dasselbe zugrunde liegende Konzept . Sie führen in jedem Ihrer drei Beispiele drei verschiedene Tests mit unterschiedlichen "Nullhypothesen" durch.