Warum werden Fehler vom Typ II in der statistischen Literatur nicht so stark betont?


10

Ich habe viele Fälle gesehen, in denen Fehler vom Typ I in verschiedenen Forschungsartikeln berücksichtigt (durch einen Alpha-Wert gekennzeichnet) werden. Ich habe es selten gefunden, dass ein Forscher die Leistung oder den Typ-II-Fehler berücksichtigt.

Typ-II-Fehler können eine große Sache sein, oder? Wir haben die alternative Hypothese versehentlich zurückgewiesen, als sie tatsächlich falsch war. Warum werden Alpha-Werte anstelle von Beta-Werten so stark betont?

Als ich Statistiken für das erste Jahr nahm, wurde mir nie Beta beigebracht - nur Alpha. Ich bin der Meinung, dass diese beiden Fehler gleich behandelt werden sollten. Es scheint jedoch nur Alpha hervorgehoben zu werden.


1
+1 Der Grund ist, dass traditionell der Fehler vom Typ I (auch bekannt als oder das Signifikanzniveau ) zuerst behoben wird und dann der Test so konstruiert wird, dass der Fehler vom Typ II minimiert wird (äquivalent, um die Leistung zu maximieren ). Ein hilfreicher Artikel auf Wikipedia, um das Problem zu verstehen, ist der über UMP-Tests (Uniformly Most Powerful), en.wikipedia.org/wiki/Uniformly_most_powerful_testα
Jeremias K

3
Sie irren sich über "Wir haben die Nullhypothese akzeptiert" - wir akzeptieren sie nie . Wir "lehnen null hyp ab" oder "lehnen null hyp nicht ab", akzeptieren aber niemals null hyp!
Höhlenmensch

gesprengt - das überflog mich. Vielen Dank für den Hinweis.

1
Achten Sie darauf, Ihre eigenen Erfahrungen nicht mit dem gesamten Bereich der statistischen Literatur zu verwechseln. Sie können kaum auf den Inhalt von Material schließen, das Sie nicht gelesen haben.
Glen_b -Reinstate Monica

@glen direkt auf. Ein versierter Titel erhält mehr Antworten.

Antworten:


5

Das ist eine gute Frage. Lassen Sie mich mit ein paar Klarstellungen beginnen:


Ich denke, Sie haben (leider) Recht, dass Strom- und Typ-II-Fehlern weniger Beachtung geschenkt wird. Während ich denke, dass sich die Situation in der biomedizinischen Forschung verbessert (z. B. erfordern Finanzierungsagenturen und IRBs jetzt häufig Leistungsanalysen), gibt es dafür mehrere Gründe:

  1. Ich denke, Macht ist für die Menschen schwerer zu verstehen als einfache Bedeutung. (Dies liegt zum Teil daran, dass es von vielen Unbekannten abhängt - insbesondere von der Effektgröße, aber es gibt auch andere).
  2. 0
  3. Wissenschaftler haben traditionell angenommen, dass Fehler vom Typ I schlimmer sind als Fehler vom Typ II.

1
Wie immer aufschlussreich - besonders für Nicht-Mathematisierte :-) ... Ich liebe diesen Wortlaut ... Ich frage mich, ob Sie den dritten Punkt etwas erweitern könnten ... Gibt es eine Grundlage für diese Tendenz. Ich weiß, dass es wahr ist, aber warum denkst du, ist dies der Fall? Liegt es daran, dass es um die Trophäe des p-Werts geht und nichts anderes zählt?
Antoni Parellada

Danke, @AntoniParellada. Ich werde darüber nachdenken, was ich noch hinzufügen könnte.
Gung - Reinstate Monica

2
Ich würde Punkt 3 klarstellen, warum Wissenschaftler Typ-I-Fehler für schlimmer halten. Die Nullhypothese ist normalerweise eine Art "Status Quo", z. B. ist die Wirkung dieses brandneuen Arzneimittels 0. Wir mögen den Status Quo, und die Beweislast liegt beim Forscher, um das Gegenteil zu beweisen. Daher möchten wir den Fehler vom Typ I begrenzen, dh den Status quo fälschlicherweise ablehnen. IMO, diese Bindung an den Status Quo ist nur philosophisch. Wenn Sie meine Meinung ändern wollen, müssen Sie es beweisen.
Heisenberg

1
In der Praxis könnte man sich leicht Fälle vorstellen, in denen Fehler vom Typ II viel wichtiger sind, dh die Kosten, die Null nicht abzulehnen, sind hoch. Wenn zum Beispiel die Menschheit einer Zombie-Epidemie ausgesetzt ist, würde die Einstellung sicher lauten: "Probieren Sie ein Medikament aus, auch wenn es möglicherweise nicht wirkt" und nicht "Sie müssen beweisen, dass es funktioniert, bevor wir es verwenden".
Heisenberg

Hinzufügen zu @Heisenberg: In Fällen, in denen Fehler vom Typ II am wichtigsten sind, sollte in Betracht gezogen werden, zwischen Punkthypothesentests und Äquivalenztests zu wechseln. In Ihrem Beispiel müsste man beweisen, dass eine vorgeschlagene Worcester-Sauce die Zombie-Epidemie zumindest nicht verschlimmert. Dann ändern die Fehlerraten ihre Rolle und die wichtigste Fehlerrate wird vom Design aus wieder festgelegt. Wenn Sie eine Kostenschätzung für falsche Entscheidungen haben, sollten Sie eine Entscheidungsregel in Betracht ziehen, die das Risiko minimiert und eine bestimmte Fehlerrate vom Typ I (nicht unbedingt) festlegt.
Horst Grünbusch

2

Der Grund ist, dass wir die tatsächliche Fehlerrate vom Typ II einfach nicht kennen und dies niemals tun werden. Dies hängt von einem Parameter ab, den wir normalerweise nicht kennen. Wenn wir diesen Parameter kennen würden, müssten wir wiederum keinen statistischen Test durchführen.

Wir können jedoch ein Experiment so planen, dass eine bestimmte Typ-II-Fehlerrate erreicht wird, vorausgesetzt, eine Alternative ist wahr. Auf diese Weise würden wir eine Stichprobengröße wählen, die keine Ressourcen verschwendet: Entweder weil der Test am Ende nicht zurückweist oder weil bereits eine viel kleinere Stichprobengröße ausgereicht hätte, um die Hypothese abzulehnen.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.