Vielleicht ist es gut, die Gründe für mehrere Testkorrekturen wie die von Bonferroni zu erklären. Wenn das klar ist, können Sie selbst beurteilen, ob Sie sie anwenden sollten oder nicht.
μH0:μ=0
H1:μ≠0H0:μ=0α
Um diese "geringe Wahrscheinlichkeit" zu finden, ziehen wir eine Zufallsstichprobe aus einer Verteilung, deren Zeitpunkt bekannt ist H0H0 te sei wahr, können wir die Wahrscheinlichkeit dieses Ergebnisses berechnen (genauer etwas, das mindestens so extrem ist wie dieses Ergebnis).
H0H0H1
Falsche Beweise sind eine schlechte Sache in der Wissenschaft, weil wir glauben, echte Kenntnisse über die Welt gewonnen zu haben, aber in der Tat haben wir möglicherweise Pech mit der Stichprobe gehabt. Diese Art von Fehlern sollte folglich kontrolliert werden. Daher sollte man die Wahrscheinlichkeit dieser Art von Beweisen nach oben begrenzen oder den Fehler vom Typ I kontrollieren. Dies erfolgt durch vorherige Festlegung eines akzeptablen Signifikanzniveaus.
5%H05%H0H1H1
H0:μ1=0&μ2=0H1:μ1≠0|μ2≠0α=0.05
Eine Möglichkeit besteht darin, diesen Hypothesentest aufzuteilen und zu testenH(1)0:μ1=0H(1)0:μ1≠0 and to test H(2)1:μ2=0 versus H(2)1:μ2≠0 both at the significance level α=0.05.
To do both tests we draw one sample , so we use one and the same sample to do both of these tests. I may have bad luck with that one sample and erroneously reject H(1)0 but with that same sample I may also have bad luck with the sample for the second test and erroneously reject H(1)0
Therefore, the chance that at least one of the two is an erroneous rejection is 1 minus the probability that both are not rejected, i.e. 1−(1−0.05)2=0.0975, where it was assumed that both tests are independent. In other words, the type I error has ''inflated'' to 0.0975 which is almost double α.
The important fact here is that the two tests are based on one and the sampe sample !
Note that we have assumed independence. If you can not assume independence then you can show, using the Bonferroni inequality$ that the type I error can inflate up to 0.1.
Note that Bonferroni is conservative and that Holm's stepwise procedure holds under the same assumptions as for Bonferroni, but Holm's procedure has more power.
When the variables are discrete it's better to use test statistics based on the minimum p-value and if you are ready to abandon type I error control when doing a massive number of tests then False Discovery Rate procedures may be more powerful.
EDIT :
If e.g. (see the example in the answer by @Frank Harrell)
H(1)0:μ1=0 versus H(1)1:μ1≠0 is the a test for the effect of a chemotherapy and
H(2)0:μ1=0 versus H(2)1:μ2≠0 is the test for the effect on tumor shrinkage,
then, in order to control the type I error at 5% for the hypothesis H(12)0:μ1=0&μ2=0 versus H(12)1:μ1≠0|μ2≠0 (i.e. the test that at least one of them has an effect) can be carried out by testing (on the same sample)
H(1)0 versus H(1)1 at the 2.5% level and also H(2)0 versus H(2)1 at the 2.5% level.