Im Allgemeinen können Sie Ihre Schätzung der Parameter, die Sie möglicherweise mit mehr Daten testen, weiter verbessern. Wenn Sie die Datenerfassung stoppen, sobald ein Test einen beliebigen Grad an Signifikanz erreicht hat, können Sie gute Schlussfolgerungen ziehen. Dass Analysten ein signifikantes Ergebnis als Zeichen dafür missverstehen, dass die Arbeit erledigt ist, ist eine von vielen unbeabsichtigten Konsequenzen des Neyman-Pearson-Frameworks, wonach Menschen p- Werte als Grund interpretieren, je nachdem, ob sie eine Null ablehnen oder nicht Auf welche Seite der kritischen Schwelle fallen sie?
Ohne Berücksichtigung der Bayes'schen Alternativen zum frequentistischen Paradigma (hoffentlich von jemand anderem) sind die Konfidenzintervalle weiterhin aussagekräftiger, weit über den Punkt hinaus, an dem eine grundlegende Nullhypothese zurückgewiesen werden kann. Wenn Sie davon ausgehen, dass Sie mehr Daten sammeln, würde Ihr grundlegender Signifikanztest nur eine noch größere Signifikanz erzielen (und nicht aufzeigen, dass Ihre frühere Signifikanzfeststellung falsch positiv war), könnten Sie dies für nutzlos halten, da Sie die Null in beiden Fällen ablehnen würden. In diesem Szenario würde Ihr Konfidenzintervall um den betreffenden Parameter jedoch weiter abnehmen, wodurch sich das Konfidenzniveau verbessern würde, mit dem Sie Ihre interessierende Grundgesamtheit genau beschreiben können.
μ = 0
One Sample t-test
data: rnorm(99)
t = -2.057, df = 98, p-value = 0.04234
alternative hypothesis: true mean is not equal to 0
95 percent confidence interval:
-0.377762241 -0.006780574
sample estimates:
mean of x
-0.1922714
t.test(rnorm(99))α = 0,05rnorm
set.seed(8);t.test(rnorm(99,1))μ = [ .69 , 1.12 ]
μ = 0,8mu=.8
set.seed(8);t.test(rnorm(999,1),mu=.8)μ = 0μ = 0,8μ = [ .90 , 1.02 ]μ = 0,89
H0: μ = 0,9set.seed(9);t.test(rnorm(999,1),mu=.9)
Das Testen immer strengerer Nullhypothesen oder besser gesagt, die Konzentration auf das Verringern der Konfidenzintervalle ist nur eine Möglichkeit, um fortzufahren. Natürlich bilden die meisten Studien, die Nullhypothesen ablehnen, die Grundlage für andere Studien, die auf der alternativen Hypothese aufbauen. Wenn ich zum Beispiel eine alternative Hypothese prüfe, dass eine Korrelation größer als Null ist, könnte ich als Nächstes in einer Folgestudie nach Mediatoren oder Moderatoren suchen ... und während ich dabei bin, möchte ich auf jeden Fall sicherstellen, dass dies der Fall ist Ich könnte das ursprüngliche Ergebnis wiederholen.
Ein weiterer zu berücksichtigender Ansatz ist das Testen der Äquivalenz . Wenn Sie den Schluss ziehen möchten, dass ein Parameter innerhalb eines bestimmten Bereichs möglicher Werte liegt, der sich nicht nur von einem einzelnen Wert unterscheidet, können Sie den Wertebereich angeben, in dem der Parameter gemäß Ihrer herkömmlichen alternativen Hypothese liegen soll, und ihn testen gegen eine andere Menge von Nullhypothesen, die zusammen die Möglichkeit darstellen, dass der Parameter außerhalb dieses Bereichs liegt. Diese letzte Möglichkeit ähnelt möglicherweise am ehesten dem, was Sie beim Schreiben im Sinn hatten:
Wir haben "einige Beweise" dafür, dass die Alternative wahr ist, aber wir können diese Schlussfolgerung nicht ziehen. Wenn ich diese Schlussfolgerung wirklich abschließend ziehen möchte ...
set.seed(8)rnorm(99)rnorm(99,1)-1μ = 0,8- .2 ≤ μ ≤ .2
require(equivalence);set.seed(8);tost(rnorm(99),epsilon=.2)
tostμ = [ - .27 , .09 ]rnorm(999)μ = [ - .09 , .01 ]
Ich denke immer noch, dass das Konfidenzintervall interessanter ist als das Ergebnis des Äquivalenztests. Es stellt dar, was die Daten darauf hindeuten, dass der Populationsmittelwert spezifischer ist als die Alternativhypothese, und legt nahe, dass ich ziemlich sicher sein kann, dass er in einem noch kleineren Intervall liegt, als ich in der Alternativhypothese angegeben habe. Um das zu demonstrieren, werde ich meine unrealistischen Simulationsfähigkeiten noch einmal missbrauchen und "replizieren" mit set.seed(7);tost(rnorm(999),epsilon=.09345092): sicher genug, p = .002.