Angenommen, ich passe eine multiple Regression von p erklärenden Variablen an. Mit dem t-Test kann ich überprüfen, ob einer davon signifikant ist ( ). Ich kann einen partiellen F-Test durchführen zu prüfen , ob eine Teilmenge von ihnen signifikant ( H 0 : β i = β j = . . . = Β k = 0 ).
Was ich jedoch oft sehe, ist, dass jemand 5 p-Werte aus 5 t-Tests erhält (vorausgesetzt, er hatte 5 Kovariaten) und nur diejenigen mit einem p-Wert <0,05 behält. Das scheint ein bisschen falsch, da es wirklich eine Mehrfachvergleichsprüfung geben sollte, nein? Ist es wirklich fair zu sagen, dass etwas wie und β 2 signifikant sind, β 3 , β 4 und β 5 jedoch nicht?
Angenommen, ich führe zwei Regressionen für zwei separate Modelle durch (unterschiedliches Ergebnis). Muss zwischen den beiden Ergebnissen eine mehrfache Vergleichsprüfung auf signifikante Parameter durchgeführt werden?
Bearbeiten: Gibt es zur Unterscheidung von der ähnlichen Frage eine andere Interpretation der p-Werte als: "B_i ist (in) signifikant, wenn für alle anderen Kovariaten angepasst wird"? Es scheint nicht, dass diese Interpretation es mir erlaubt, jedes B_i zu betrachten und die weniger als 0,5 fallen zu lassen (was dem anderen Beitrag ähnlich ist).
Es scheint mir, dass ein sicherer Weg, um zu testen, ob B_i und Y eine Beziehung haben, darin besteht, einen Korrelationskoeffizienten-p-Wert für jede Kovariate zu erhalten und dann einen Multcomp durchzuführen (obwohl dies definitiv das Signal verlieren würde).
Angenommen, ich habe die Korrelation zwischen B1 / Y1, B2 / Y1 und B3 / Y1 berechnet (also drei p-Werte). Unabhängig davon habe ich auch eine Korrelation zwischen T1 / Y2, T2 / Y2, T3 / Y2 durchgeführt. Ich gehe davon aus, dass die korrekte Bonferroni-Anpassung 6 für alle 6 Tests zusammen ist (anstatt 3 für die erste Gruppe und 3 für die zweite Gruppe - und somit 2 "semi" -angepasste p-Werte erhalten).