In einem Webinar eines A / B-Testunternehmens wurde der ansässige "Data Scientist" erklärt, dass Sie Ihre Ergebnisse validieren sollten, indem Sie das Experiment erneut ausführen. Die Prämisse war, dass bei Auswahl von 95% Konfidenz eine Wahrscheinlichkeit von 5% (1/20) für ein falsches Positiv besteht. Wenn Sie Ihr Experiment mit denselben Einschränkungen erneut ausführen, gibt es jetzt 1/400 (ich gehe davon aus, dass dies 0,05 ^ 2 = 1/400 ist).
Ist das eine gültige Aussage? (dh "zweimal laufen, zwei statistische Signifikanz gewinnt = 1/400 Wahrscheinlichkeit eines falsch positiven")? Wäre es ein besserer Ansatz gewesen, Ihr Signifikanzniveau zu erhöhen?
Aus geschäftlicher Sicht besteht mein Anliegen darin, dass Sie durch erneutes Ausführen des Experiments mehr Benutzer einer minderwertigen Seite (Behandlung) aussetzen und somit potenzielle Verkäufe verlieren.