Vor ein paar Jahren hätte ich die Antwort von @Michael Chernick vollständig abonniert.
Ich habe jedoch kürzlich festgestellt, dass einige Implementierungen des t-Tests extrem robust gegenüber Ungleichheit von Varianzen sind. Insbesondere in R hat die Funktion t.test
einen Standardparameter var.equal=FALSE
, was bedeutet, dass sie nicht einfach auf einer gepoolten Schätzung der Varianz beruht. Stattdessen werden die ungefähren Freiheitsgrade von Welch-Satterthwaite verwendet , die ungleiche Abweichungen ausgleichen.
Sehen wir uns ein Beispiel an.
set.seed(123)
x <- rnorm(100)
y <- rnorm(100, sd=0.00001)
# x and y have 0 mean, but very different variance.
t.test(x,y)
Welch Two Sample t-test
data: x and y
t = 0.9904, df = 99, p-value = 0.3244
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-0.09071549 0.27152946
sample estimates:
mean of x mean of y
9.040591e-02 -1.075468e-06
Sie können sehen, dass R behauptet, den T-Test von Welch und nicht den T-Test von Student durchzuführen . Hier wird behauptet, dass der Freiheitsgrad 99 ist, obwohl jede Probe die Größe 100 hat, so dass hier die Funktion im Wesentlichen die erste Probe gegen den festen Wert 0 testet.
Sie können selbst überprüfen, ob diese Implementierung korrekte ( dh einheitliche) p-Werte für zwei Stichproben mit sehr unterschiedlichen Varianzen liefert.
Dies war nun für einen T-Test mit zwei Stichproben. Meine eigene Erfahrung mit ANOVA ist, dass es viel empfindlicher auf Ungleichheit von Varianzen reagiert. In diesem Fall stimme ich @Michael Chernick voll und ganz zu.