Ich verwende die Formel aus dem Bayes'schen Ab-Test , um die Ergebnisse des AB-Tests nach der Bayes'schen Methode zu berechnen.
wo
- in eins plus die Anzahl der Erfolge für A.
- in eins plus die Anzahl der Fehler für A.
- in eins plus die Anzahl der Erfolge für B.
- in eins plus die Anzahl der Fehler für B.
- ist die Beta-Funktion
Beispieldaten:
control: 1000 trials with 78 successes
test: 1000 trials with 100 successes
Ein nicht-Bayes'scher Standard-Prop-Test liefert signifikante Ergebnisse (p <10%):
prop.test(n=c(1000,1000), x=c(100,78), correct=F)
# 2-sample test for equality of proportions without continuity correction
#
# data: c(100, 78) out of c(1000, 1000)
# X-squared = 2.9847, df = 1, p-value = 0.08405
# alternative hypothesis: two.sided
# 95 percent confidence interval:
# -0.0029398 0.0469398
# sample estimates:
# prop 1 prop 2
# 0.100 0.078
während meine Implementierung der Bayes-Formel (unter Verwendung der Erklärungen im Link) mir sehr seltsame Ergebnisse lieferte:
# success control+1
a_control <- 78+1
# failures control+1
b_control <- 1000-78+1
# success control+1
a_test <- 100+1
# failures control+1
b_test <- 1000-100+1
is_control_better <- 0
for (i in 0:(a_test-1) ) {
is_control_better <- is_control_better+beta(a_control+i,b_control+b_test) /
(b_test+i)*beta(1+i,b_test)*beta(a_control,b_control)
}
round(is_control_better, 4)
# [1] 0
Das bedeutet , dass die ist , was keinen Sinn dieser Daten gegeben macht.
Könnte jemand klarstellen?
p-value
Tag entferne, da es nicht verwandt ist.
p-value
Tag? Ich dachte, die Bayesianer weigerten sich, irgendetwas mit p-Werten zu tun zu haben.