Was bedeutet "Wissenschaftler erheben sich gegen statistische Signifikanz"? (Kommentar in der Natur)


61

Der Titel des Kommentars in Nature Scientists, der sich gegen die statistische Signifikanz erhebt, beginnt mit:

Valentin Amrhein, Sander Greenland, Blake McShane und mehr als 800 Unterzeichner fordern ein Ende der gehypten Ansprüche und die Abweisung möglicherweise entscheidender Auswirkungen.

und enthält später Aussagen wie:

Auch hier befürworten wir kein Verbot von P-Werten, Konfidenzintervallen oder anderen statistischen Maßen - nur, dass wir sie nicht kategorisch behandeln sollten. Dies schließt Dichotomisierung als statistisch signifikant oder nicht signifikant sowie Kategorisierung basierend auf anderen statistischen Maßen wie Bayes-Faktoren ein.

Ich glaube, ich kann verstehen, dass das Bild unten nicht besagt, dass die beiden Studien nicht übereinstimmen, weil eine keine Wirkung "ausschließt", während die andere dies nicht tut. Aber der Artikel scheint viel tiefer zu gehen, als ich verstehen kann.

Gegen Ende scheint es eine Zusammenfassung in vier Punkten zu geben. Ist es möglich, diese für diejenigen von uns, die Statistiken lesen und nicht schreiben, noch einfacher zusammenzufassen ?

Berücksichtigen Sie beim Sprechen über Kompatibilitätsintervalle vier Dinge.

  • Erstens bedeutet dies nicht, dass Werte außerhalb des Intervalls inkompatibel sind, nur weil das Intervall die Werte angibt, die mit den Daten am besten kompatibel sind. Sie sind nur weniger kompatibel ...

  • Zweitens sind unter den gegebenen Voraussetzungen nicht alle Werte im Inneren gleichermaßen mit den Daten kompatibel ...

  • Drittens ist, wie der Schwellenwert von 0,05, der für die Berechnung der Intervalle verwendet wird, der Standardwert von 95% selbst eine willkürliche Konvention ...

  • Seien Sie demütig: Die Bewertung der Kompatibilität hängt von der Richtigkeit der statistischen Annahmen ab, die zur Berechnung des Intervalls herangezogen werden ...


Natur: Wissenschaftler erheben sich gegen statistische Signifikanz


13
Grundsätzlich wollen sie Forschungsarbeiten mit noch mehr Falsch-Positiven füllen!
David

12
Siehe die Diskussion auf Gelmans Blog: statmodeling.stat.columbia.edu/2019/03/20/… . Offensichtlich ist der Artikel wirft einige gültige Punkte, aber siehe Kommentare von Ioannidis erhoben gegen diesen Artikel (und auch separat, gegen die „Petition“ Aspekt davon), wie von Gelman zitiert.
Amöbe sagt Reinstate Monica

3
Dies ist jedoch kein neues Konzept. Metaanalysen sind seit fast 50 Jahren ein Thema, und Cochrane führt seit 25 Jahren Metaanalysen zu Studien in den Bereichen Medizin / Gesundheitswesen durch (wo es einfacher ist, Ziele und Ergebnisse zu standardisieren).
Graham

4
Grundsätzlich besteht das Problem darin, die "Unsicherheit", bei der es sich um ein mehrdimensionales Problem handelt, auf eine einzige Zahl zu reduzieren.
MaxW

4
Grundsätzlich würde dieser Artikel wahrscheinlich nicht existieren, wenn die Leute sagten "wir haben keine Hinweise auf eine Assoziation zwischen X und Y gefunden" anstatt "X und Y sind nicht verwandt", wenn sie . p>α
Firebug

Antworten:


65

Die ersten drei Punkte sind meines Erachtens eine Variation eines einzelnen Arguments.

Wissenschaftler behandeln Unsicherheitsmessungen ( z. B. ) häufig als Wahrscheinlichkeitsverteilungen , die folgendermaßen aussehen:12±1

gleichmäßige Wahrscheinlichkeitsverteilung

Eigentlich sehen sie viel wahrscheinlicher so aus : Bildbeschreibung hier eingeben

Als ehemaliger Chemiker kann ich bestätigen, dass viele Wissenschaftler mit nicht-mathematischem Hintergrund (hauptsächlich nicht-physikalische Chemiker und Biologen) nicht wirklich verstehen, wie Ungewissheit (oder Fehler, wie sie es nennen) funktionieren soll. Sie erinnern sich an eine Zeit in der Grundlagenphysik, in der sie sie möglicherweise einsetzen mussten, möglicherweise sogar einen zusammengesetzten Fehler durch mehrere verschiedene Messungen berechnen mussten, aber sie verstanden sie nie wirklich . Ich war zu von diesem schuldig und nahm alle Messungen hatten innerhalb des kommenden Intervalls. Erst kürzlich (und außerhalb der Wissenschaft) habe ich herausgefunden, dass sich Fehlermessungen normalerweise auf eine bestimmte Standardabweichung beziehen, nicht auf eine absolute Grenze.±

So zerlegen Sie die nummerierten Punkte im Artikel:

  1. Messungen außerhalb des CI haben immer noch eine Chance, da die reale (wahrscheinliche Gauß'sche) Wahrscheinlichkeit dort nicht null ist (oder irgendwo anders, obwohl sie verschwindend klein werden, wenn Sie weit weg sind). Wenn die Werte nach tatsächlich eine SD darstellen, besteht eine Wahrscheinlichkeit von 32%, dass ein Datenpunkt außerhalb dieser Werte liegt.±

  2. Die Verteilung ist nicht gleichmäßig (wie in der ersten Grafik oben flach), sondern weist einen Peak auf. Es ist wahrscheinlicher, dass Sie einen Wert in der Mitte erhalten, als an den Rändern. Es ist, als würde man einen Haufen Würfel würfeln und nicht einen einzigen Würfel.

  3. 95% ist eine willkürliche Grenze und stimmt fast genau mit zwei Standardabweichungen überein.

  4. Dieser Punkt ist eher ein Kommentar zur akademischen Ehrlichkeit im Allgemeinen. Eine Erkenntnis, die ich während meiner Promotion hatte, ist, dass Wissenschaft keine abstrakte Kraft ist, sondern die kumulativen Anstrengungen von Menschen, die versuchen, Wissenschaft zu betreiben. Dies sind Menschen, die versuchen, neue Dinge über das Universum zu entdecken, gleichzeitig aber auch versuchen, ihre Kinder zu ernähren und ihre Jobs zu behalten, was in der heutigen Zeit leider bedeutet, dass eine Form des Publizierens oder des Untergangs im Spiel ist. In Wirklichkeit sind Wissenschaftler auf Entdeckungen angewiesen, die sowohl wahr als auch interessant sind , da uninteressante Ergebnisse nicht zu Veröffentlichungen führen.

Willkürliche Schwellenwerte wie können sich oft selbst aufrechterhalten, insbesondere bei Personen, die die Statistik nicht vollständig verstehen und nur einen Bestehen- / Nichtbestehen-Stempel für ihre Ergebnisse benötigen. Aus diesem Grund reden die Leute manchmal im Scherz darüber, den Test erneut durchzuführen, bis Sie . Es kann sehr verlockend sein, vor allem, wenn ein Doktortitel, ein Stipendium oder eine Anstellung vom Ergebnis abhängt, bis sich das gewünschte in der Analyse zeigt.p<0.05p<0.05p=0.0498

Solche Praktiken können sich nachteilig auf die Wissenschaft als Ganzes auswirken, insbesondere wenn sie weit verbreitet sind, und zwar auf der Suche nach einer Zahl, die in den Augen der Natur bedeutungslos ist. Dieser Teil ermahnt die Wissenschaftler, ehrlich mit ihren Daten und ihrer Arbeit umzugehen, auch wenn diese Ehrlichkeit zu ihrem Nachteil ist.


26
+1 für "... veröffentlichen oder untergehen ist angesagt. In Wirklichkeit sind Wissenschaftler auf Entdeckungen angewiesen, die sowohl wahr als auch interessant sind, da uninteressante Ergebnisse nicht zu Veröffentlichungen führen." Es gab ein interessantes Papier, das vor Jahren herauskam und darüber sprach, wie dieses "Veröffentlichen oder Untergehen" zu einem Verzerrungsfaktor im gesamten akademischen Bereich führte: Warum die meisten veröffentlichten Forschungsergebnisse falsch sind (Ioannidis, 2005)
J. Taylor

4
Ich bin nicht einverstanden mit "der realen (wahrscheinlichen) Gaußschen Unsicherheit ..." - Gauß ist eine weitere Vereinfachung. Es ist dank des zentralen Grenzwertsatzes etwas gerechtfertigter als das Hard-Limits-Modell, aber die tatsächliche Verteilung ist im Allgemeinen noch etwas anderes.
links um 21.03. Um

1
@leftaroundabout Die tatsächliche Verteilung ist wahrscheinlich immer noch anders, aber solange der Wert physikalisch nicht unmöglich ist, ist die Wahrscheinlichkeit wahrscheinlich immer noch mathematisch ungleich Null.
Gerrit

3
@Leftaroundabout zu sagen, dass die Unsicherheit wahrscheinlich Gauß ist, ist nicht von Natur aus eine Vereinfachung. Es wird eine vorherige Verteilung beschrieben, die vom CLT als die beste Verteilung ohne andere unterstützende Daten gerechtfertigt ist. Indem jedoch Ungewissheit über die Verteilung zum Ausdruck gebracht wird, ist bereits die Bestätigung vorhanden, dass die Verteilung durchaus nicht Gaußsch sein könnte.
Wird

7
@inisfree Sie sind sehr, sehr falsch. In vielen wissenschaftlichen Disziplinen (wie Chemie und Biologie, wie ich bereits sagte) wird neben der Grundrechenart auch fast keine Mathematik verwendet. Es gibt ansonsten brillante Wissenschaftler, die fast Analphabeten sind, und ich habe einige von ihnen getroffen.
Ingolifs

19

Ein Großteil des Artikels und der Abbildung, die Sie einfügen, machen einen sehr einfachen Punkt:

Das Fehlen von Beweisen für eine Wirkung ist kein Beweis dafür, dass es nicht existiert.

Zum Beispiel,

"In unserer Studie starben Mäuse, denen Cyanid verabreicht wurde, nicht mit statistisch signifikant höheren Raten."

Angenommen, wir geben zwei Mäusen eine Dosis Cyanid und einer von ihnen stirbt. In der Kontrollgruppe von zwei Mäusen stirbt keine. Da die Stichprobengröße so gering war, ist dieses Ergebnis statistisch nicht signifikant ( ). Daher zeigt dieses Experiment keinen statistisch signifikanten Effekt von Cyanid auf die Lebensdauer von Mäusen. Sollen wir daraus schließen, dass Cyanid keine Wirkung auf Mäuse hat? Offensichtlich nicht.p>0.05

Aber das ist der Fehler, den die Autoren behaupten, Wissenschaftler würden ihn routinemäßig machen.

Zum Beispiel könnte in Ihrer Figur die rote Linie aus einer Studie an sehr wenigen Mäusen stammen, während die blaue Linie aus genau derselben Studie stammen könnte, jedoch an vielen Mäusen.

Die Autoren schlagen vor, dass die Wissenschaftler anstelle von Effektgrößen und p-Werten die Möglichkeiten beschreiben, die mehr oder weniger mit ihren Ergebnissen vereinbar sind. In unserem Experiment mit zwei Mäusen müssten wir schreiben, dass unsere Ergebnisse beide kompatibel sind, wenn Cyanid sehr giftig und überhaupt nicht giftig ist. In einem Experiment mit 100 Mäusen können wir einen Konfidenzintervallbereich von Todesfällen mit einer Punktschätzung von[60%,70%]65%. Dann sollten wir schreiben, dass unsere Ergebnisse am besten mit der Annahme vereinbar wären, dass diese Dosis 65% der Mäuse tötet, unsere Ergebnisse jedoch auch mit Prozentsätzen von nur 60 oder 70 kompatibel wären und dass unsere Ergebnisse weniger kompatibel wären mit einer Wahrheit außerhalb dieses Bereichs. (Wir sollten auch beschreiben, welche statistischen Annahmen wir treffen, um diese Zahlen zu berechnen.)


4
Ich bin mit der pauschalen Aussage nicht einverstanden, dass "das Fehlen von Beweisen kein Beweis für das Fehlen ist". Mithilfe von Leistungsberechnungen können Sie die Wahrscheinlichkeit bestimmen, dass ein Effekt einer bestimmten Größe bei einer bestimmten Stichprobengröße als signifikant eingestuft wird. Bei großen Effektgrößen sind weniger Daten erforderlich, um einen signifikanten Unterschied zu Null festzustellen, während bei kleinen Effekten eine größere Stichprobengröße erforderlich ist. Wenn Ihre Studie ordnungsgemäß mit Strom versorgt wird und Sie immer noch keine signifikanten Effekte sehen, können Sie mit gutem Grund den Schluss ziehen, dass der Effekt nicht vorhanden ist. Wenn Sie über ausreichende Daten verfügen, kann eine Nicht-Signifikanz in der Tat keinen Effekt anzeigen.
Nuclear Wang

1
@NuclearWang Richtig, aber nur, wenn die Leistungsanalyse im Voraus durchgeführt wird und nur, wenn die Annahmen und dann die Interpretationen korrekt sind (dh Ihre Leistung ist nur für die Stärke der vorhergesagten Effektgröße relevant . "80% "bedeutet nicht, dass Sie mit einer Wahrscheinlichkeit von 80% den Null- Effekt richtig erkennen können." Meiner Erfahrung nach wird die Verwendung von "nicht signifikant", um "keinen Effekt" zu bedeuten, häufig auf sekundäre Endpunkte oder seltene Ereignisse angewendet , für die die Studie (angemessen) ohnehin nicht geeignet ist. Schließlich ist Beta typischerweise >> Alpha.
Bryan Krause

9
@NuclearWang, ich glaube nicht, dass irgendjemand argumentiert "Abwesenheit von Beweisen ist NIEMALS ein Beweis für Abwesenheit". Ich denke, dass sie argumentieren, dass es nicht automatisch als solches interpretiert werden sollte und dass dies der Fehler ist, den die Leute machen.
USUL

Es ist fast so, als ob die Leute nicht in Prüfungen auf Gleichwertigkeit oder so etwas geschult sind .
Alexis

19

Ich werde es versuchen.

  1. Das Konfidenzintervall (das sie in Kompatibilitätsintervall umbenennen) zeigt die Werte des Parameters an, die mit den Daten am kompatibelsten sind. Dies bedeutet jedoch nicht, dass die Werte außerhalb des Intervalls absolut nicht mit den Daten kompatibel sind.
  2. Werte nahe der Mitte des Konfidenzintervalls (Kompatibilitätsintervalls) sind mit den Daten kompatibler als Werte nahe dem Ende des Intervalls.
  3. 95% ist nur eine Konvention. Sie können 90% oder 99% oder beliebige% Intervalle berechnen.
  4. Die Konfidenz- / Kompatibilitätsintervalle sind nur dann hilfreich, wenn das Experiment ordnungsgemäß durchgeführt wurde, wenn die Analyse nach einem festgelegten Plan durchgeführt wurde und die Daten mit den Annahmen der Analysemethoden übereinstimmen. Wenn Sie schlechte Daten schlecht analysiert haben, ist das Kompatibilitätsintervall nicht aussagekräftig oder hilfreich.

10

Die großartige XKCD hat diesen Cartoon vor einiger Zeit erstellt und das Problem verdeutlicht. Wenn Ergebnisse mit vereinfacht als Beweis für eine Hypothese behandelt werden - und das sind sie allzu oft -, dann ist eine von 20 so bewiesenen Hypothesen tatsächlich falsch. In ähnlicher wird eine von 20 wahren Hypothesen fälschlicherweise verworfen , wenn als Widerlegung einer Hypothese angesehen wird. P-Werte sagen Ihnen nicht, ob eine Hypothese wahr oder falsch ist, sie sagen Ihnen, ob eine Hypothese wahrscheinlich wahr oder falsch ist. Es scheint, dass der Artikel, auf den verwiesen wird, gegen die allzu alltägliche naive Interpretation zurückschlägt.P>0.05P < 0,05P<0.05


8
(-1) P-Werte zeigen nicht an, ob eine Hypothese wahrscheinlich wahr oder falsch ist. Dafür benötigen Sie eine vorherige Verteilung. Siehe zum Beispiel dieses xkcd . Die problematische Handbewegung, die zu dieser Verwirrung führt, ist, dass, wenn wir ähnliche Prioritäten für eine große Anzahl von Hypothesen haben, der p-Wert proportional zur Wahrscheinlichkeit ist, dass er wahr oder falsch ist. Bevor jedoch Daten angezeigt werden, sind einige Hypothesen viel wahrscheinlicher als andere!
Cliff AB

3
Obwohl dieser Effekt nicht unberücksichtigt bleiben sollte, ist er keineswegs ein wesentlicher Punkt des Artikels, auf den verwiesen wird.
RM

6

tl; dr - Es ist grundsätzlich unmöglich zu beweisen, dass die Dinge nichts miteinander zu tun haben. Statistiken können nur zu zeigenverwendet werdenwennDinge sind verwandt. Trotz dieser allgemein anerkannten Tatsache wird ein Mangel an statistischer Signifikanz häufig falsch interpretiert, um einen Mangel an Beziehung zu implizieren.


Eine gute Verschlüsselungsmethode sollte einen Chiffretext generieren, der nach Ansicht eines Angreifers keine statistische Beziehung zu der geschützten Nachricht aufweist. Denn wenn ein Angreifer eine Art von Beziehung bestimmen können, dann können sie Informationen über Ihre geschützten Nachrichten bei einem Blick auf die Geheimtexte bekommen - das ist eine ist schlechte Sache TM .

Der Chiffretext und der zugehörige Klartext 100% bestimmen sich jedoch gegenseitig. Selbst wenn die besten Mathematiker der Welt keine signifikante Beziehung finden, egal wie sehr sie es versuchen, wissen wir natürlich immer noch, dass die Beziehung nicht nur da ist, sondern vollständig und vollständig deterministisch. Dieser Determinismus kann existieren, selbst wenn wir wissen, dass es unmöglich ist, eine Beziehung zu finden .

Trotzdem bekommen wir immer noch Leute, die Sachen machen wie:

  1. Wählen Sie eine Beziehung, die sie " widerlegen " möchten .

  2. Machen Sie eine Studie darüber, die nicht ausreicht, um die angebliche Beziehung zu erkennen.

  3. Berichten Sie über das Fehlen einer statistisch signifikanten Beziehung.

  4. Verdrehen Sie dies in einen Mangel an Beziehung.

Dies führt zu allen Arten von " wissenschaftlichen Studien ", von denen die Medien (fälschlicherweise) berichten, dass sie das Bestehen einer Beziehung widerlegen.

Wenn Sie Ihre eigene Studie erstellen möchten, gibt es eine Reihe von Möglichkeiten, wie Sie dies tun können:

  1. Faule Forschung:
    Der einfachste Weg ist es, unglaublich faul zu sein. Es ist genau so wie in der Abbildung in der Frage: . Sie können leicht das indem Sie einfach kleine Stichprobengrößen haben, viel Lärm zulassen und andere verschiedene faule Dinge Sammeln Sie keine Daten, dann sind Sie schon fertig!

    'Non-significant' study(high P value)"

  2. Faule Analyse:
    Aus irgendeinem dummen Grund denken manche Leute, dass ein Pearson-Korrelationskoeffizient von " keine Korrelation " bedeutet. Was in einem sehr begrenzten Sinne wahr ist. Hier sind jedoch einige Fälle zu beachten: . Dies bedeutet, dass es möglicherweise keine " lineare " Beziehung gibt, aber offensichtlich eine komplexere. Und es muss nicht unbedingt ein Komplex auf " Verschlüsselungs " -Ebene sein, sondern vielmehr " es ist eigentlich nur eine zackige Linie " oder "es gibt zwei Korrelationen " oder was auch immer.0

  3. Faule Antwort:
    Im Sinne der obigen Ausführungen werde ich hier aufhören. Um faul zu sein!

Aber im Ernst, der Artikel fasst es gut zusammen in:

Machen wir uns klar, was aufhören muss: Wir sollten niemals den Schluss ziehen, dass es keinen Unterschied oder keine Assoziation gibt, nur weil ein P-Wert größer als ein Schwellenwert wie 0,05 ist oder weil ein Konfidenzintervall Null enthält.


+1 weil das, was du schreibst, wahr ist und zum Nachdenken anregt. Meiner bescheidenen Meinung nach können Sie jedoch beweisen, dass zwei Größen unter bestimmten Voraussetzungen nicht miteinander korrelieren. Sie haben ersten Start von zB offcourse eine bestimmten Verteilung von ihnen angenommen, aber dies kann auf den Gesetzen der Physik basieren oder Statistiken (zB die Geschwindigkeit der Moleküle eines Gases in einem Behälter wird erwartet , dass Gaußsche oder so weiter sein)
ntg

3
@ntg Ja, es ist schwer zu wissen, wie man einige dieser Sachen formuliert, also habe ich viel ausgelassen. Ich meine, die allgemeine Wahrheit ist, dass wir nicht widerlegen können, dass eine Beziehung besteht, obwohl wir im Allgemeinen zeigen können, dass eine bestimmte Beziehung nicht existiert. Sorta wie, wir können nicht feststellen, dass zwei Datenreihen nicht in Beziehung stehen, aber wir können feststellen, dass sie durch eine einfache lineare Funktion nicht zuverlässig in Beziehung zu stehen scheinen.
Nat

1
-1 "tl; dr- Es ist grundsätzlich unmöglich zu beweisen, dass die Dinge nichts miteinander zu tun haben": Äquivalenztests liefern den Nachweis , dass innerhalb einer beliebigen Effektgröße kein Effekt vorliegt.
Alexis

2
@Alexis Ich glaube, Sie verstehen Äquivalenztests falsch. Sie können Äquivalenztests verwenden, um das Fehlen einer bestimmten Beziehungshaltung, z. B. einer linearen Beziehung, nachzuweisen, jedoch nicht das Fehlen einer Beziehung.
Nat

1
Mithilfe der statistischen Inferenz von @Alexis können Sie in einem bestimmten Modell nachweisen, dass kein Effekt vorliegt, der größer als eine bestimmte Effektgröße ist . Vielleicht gehen Sie davon aus, dass das Modell immer bekannt sein wird?
Nat

4

Für eine didaktische Einführung in das Problem hat Alex Reinhart ein Buch geschrieben, das vollständig online verfügbar und bei No Starch Press (mit mehr Inhalten) herausgegeben ist: https://www.statisticsdonewrong.com

Es erklärt die Wurzel des Problems ohne ausgefeilte Mathematik und enthält spezifische Kapitel mit Beispielen aus simulierten Datensätzen:

https://www.statisticsdonewrong.com/p-value.html

https://www.statisticsdonewrong.com/regression.html

Im zweiten Link veranschaulicht ein grafisches Beispiel das p-Wert-Problem. Der P-Wert wird häufig als einzelner Indikator für die statistische Differenz zwischen den Datensätzen verwendet, reicht jedoch für sich genommen eindeutig nicht aus.

Bearbeiten Sie für eine detailliertere Antwort:

In vielen Fällen zielen Studien darauf ab, eine genaue Art von Daten zu reproduzieren, entweder physikalische Messungen (etwa die Anzahl der Teilchen in einem Beschleuniger während eines bestimmten Experiments) oder quantitative Indikatoren (etwa die Anzahl der Patienten, bei denen bei Drogentests bestimmte Symptome auftreten). In beiden Fällen können viele Faktoren den Messprozess stören, z. B. menschliches Versagen oder Systemschwankungen (Menschen, die unterschiedlich auf dasselbe Medikament reagieren). Dies ist der Grund, warum Experimente oft hunderte Male durchgeführt werden, und Drogentests werden im Idealfall an Kohorten von Tausenden von Patienten durchgeführt.

Der Datensatz wird dann mithilfe von Statistiken auf die einfachsten Werte reduziert: Mittelwerte, Standardabweichungen usw. Das Problem beim Vergleich von Modellen mit ihrem Mittelwert besteht darin, dass die gemessenen Werte nur Indikatoren für die wahren Werte sind und sich auch statistisch in Abhängigkeit von der Anzahl und Genauigkeit der einzelnen Messungen ändern. Wir haben Möglichkeiten, um zu erraten, welche Maßnahmen wahrscheinlich gleich sind und welche nicht, aber nur mit einer gewissen Sicherheit. Die übliche Schwelle ist zu sagen, dass wenn wir weniger als eine von zwanzig Chancen haben, falsch zu liegen, wenn wir sagen, dass zwei Werte unterschiedlich sind, wir sie als "statistisch unterschiedlich" betrachten (das ist die Bedeutung von ), andernfalls schließen wir nicht.P<0.05

Dies führt zu den seltsamen Schlussfolgerungen, die in Nature's Artikel dargestellt werden, in dem zwei gleiche Maße die gleichen Mittelwerte ergeben, die Schlussfolgerungen der Forscher jedoch aufgrund der Größe der Stichprobe unterschiedlich sind. Diese und andere Aspekte des statistischen Vokabulars und der Gewohnheiten werden in den Wissenschaften immer wichtiger. Eine andere Seite des Problems besteht darin, dass die Menschen häufig vergessen, dass sie statistische Instrumente verwenden, und auf die Wirkung schließen, ohne die statistische Aussagekraft ihrer Proben ordnungsgemäß zu überprüfen.

Ein anderes Beispiel ist, dass die Sozial - und Biowissenschaften in letzter Zeit eine echte Replikationskrise durchlaufen , da viele Effekte von Menschen angenommen wurden, die die statistische Aussagekraft berühmter Studien nicht überprüft haben (während andere die Daten verfälschten) aber das ist ein anderes Problem).


3
Diese Antwort ist nicht nur eine Verknüpfung, sondern weist alle hervorstechenden Merkmale einer " Nur-Verknüpfung-Antwort " auf. Um diese Antwort zu verbessern, beziehen Sie bitte die wichtigsten Punkte in die Antwort ein. Idealerweise sollte Ihre Antwort als Antwort nützlich sein, auch wenn der Inhalt der Links verschwindet.
RM

2
Über die p-Werte und den Basisratenfehler (in Ihrem Link erwähnt) hat Veritasium dieses Video veröffentlicht, das als Bayes'sche Falle bezeichnet wird .
jjmontes

2
Entschuldigung, dann werde ich versuchen, die Antwort so schnell wie möglich zu verbessern und zu entwickeln. Meine Idee war es auch, dem neugierigen Leser nützliches Material zur Verfügung zu stellen.
G.Clavier

1
@G.Clavier und der selbst beschriebene Statistik-Neuling und neugierige Leser wissen das zu schätzen!
Uhoh

1
@uhoh Froh, es zu lesen. :)
G.Clavier

4

Für mich war der wichtigste Teil:

... [Wir] fordern die Autoren dringend auf, die Punktschätzung zu diskutieren, auch wenn sie einen großen P-Wert oder ein breites Intervall haben, sowie die Grenzen dieses Intervalls zu diskutieren.

Mit anderen Worten: Legen Sie einen höheren Schwerpunkt auf die Erörterung von Schätzungen (Mittelpunkt und Konfidenzintervall) und einen geringeren Schwerpunkt auf das Testen von Nullhypothesen.

Wie funktioniert das in der Praxis? Eine Menge Forschung läuft darauf hinaus, Effektgrößen zu messen, zum Beispiel "Wir haben ein Risikoverhältnis von 1,20 mit einem 95% -KI zwischen 0,97 und 1,33 gemessen". Dies ist eine geeignete Zusammenfassung einer Studie. Sie sehen sofort die wahrscheinlichste Effektgröße und die Messunsicherheit. Mit dieser Zusammenfassung können Sie diese Studie schnell mit ähnlichen Studien vergleichen und im Idealfall alle Ergebnisse in einem gewichteten Durchschnitt zusammenfassen.

Leider werden solche Studien häufig als "Wir haben keinen statistisch signifikanten Anstieg des Risikoverhältnisses festgestellt" zusammengefasst. Dies ist eine gültige Schlussfolgerung der obigen Studie. Es ist jedoch keine geeignete Zusammenfassung der Studie, da Studien mit solchen Zusammenfassungen nicht einfach verglichen werden können. Sie wissen nicht, welche Studie am genauesten gemessen wurde, und Sie können sich nicht vorstellen, wie das Ergebnis einer Metastudie aussehen könnte. Und Sie erkennen nicht sofort, wenn Studien behaupten, dass sich das Risiko nicht signifikant erhöht, wenn die Vertrauensbereiche so groß sind, dass Sie einen Elefanten darin verstecken können.


Das hängt von der Nullhypothese ab. Zum Beispiel liefert das Zurückweisen von Hinweise auf eine Abwesenheit eines Effekts, der größer als ein beliebig kleines . H0:|θ|ΔΔ
Alexis

1
Ja, aber warum sollte man sich überhaupt die Mühe machen, eine solche Hypothese zu diskutieren? Sie können einfach die gemessene Effektgröße und dann diskutieren, was die besten / schlechtesten Auswirkungen sind. Dies geschieht typischerweise in der Physik, beispielsweise bei der Messung der Masse-zu-Ladung-Differenz zwischen Proton und Antiproton . Die Autoren hätten wählen können, eine Nullhypothese zu formulieren (vielleicht, um Ihrem Beispiel zu folgen, dass der absolute Unterschied größer als ein ) und fortfahren können, sie zu testen, aber es gibt wenig Mehrwert in einer solchen Diskussion. θ±δθΔ
Martin JH

3

Es ist "bezeichnend", dass Statistiker , nicht nur Wissenschaftler, auftauchen und die lose Verwendung von "Bedeutung" und Werten ablehnen. Die neueste Ausgabe von The American Statistician widmet sich ausschließlich dieser Angelegenheit. Siehe insbesondere das Leitartikel von Wasserman, Schirm und Lazar. P


Danke für den Link! Es ist ein Augenöffner; Mir war nicht klar, dass darüber so viel nachgedacht und diskutiert wurde.
Uhoh

2

Tatsache ist, dass p-Werte aus mehreren Gründen tatsächlich zu einem Problem geworden sind.

Trotz ihrer Schwächen haben sie wichtige Vorteile wie Einfachheit und intuitive Theorie. Obwohl ich dem Kommentar in der Natur insgesamt zustimme , bin ich der Meinung, dass eine ausgewogenere Lösung erforderlich ist , anstatt die statistische Signifikanz vollständig aufzugeben. Hier sind einige Optionen:

1. "Änderung der Standard- P-Wert- Schwelle für statistische Signifikanz von 0,05 auf 0,005 für Ansprüche auf neue Entdeckungen". Aus meiner Sicht haben Benjamin et al. Die überzeugendsten Argumente gegen die Einführung eines höheren Evidenzstandards sehr gut angesprochen.

2. Übernahme der p-Werte der zweiten Generation . Diese scheinen eine vernünftige Lösung für die meisten Probleme zu sein, die klassische p-Werte betreffen . Wie Blume et al sagen hier , der zweiten Generation p-Werte könnten „verbessern Strenge, Reproduzierbarkeit und Transparenz in statistischen Analysen.“ Helfen

3. Neudefinition des p-Werts als "quantitatives Maß für die Sicherheit - ein" Vertrauensindex "- dass eine beobachtete Beziehung oder Behauptung wahr ist". Dies könnte dazu beitragen, das Analyseziel von der Erreichung der Signifikanz zur angemessenen Schätzung dieses Vertrauens zu ändern.

Wichtig ist, dass "Ergebnisse, die die Schwelle für statistische Signifikanz oder " Vertrauen " (was auch immer) nicht erreichen, immer noch wichtig sind und eine Veröffentlichung in führenden Fachzeitschriften verdienen, wenn sie wichtige Forschungsfragen mit strengen Methoden beantworten."

Ich denke, das könnte dazu beitragen, die Besessenheit von führenden Fachzeitschriften mit p-Werten abzumildern , die hinter dem Missbrauch von p-Werten steht .


Vielen Dank für Ihre Antwort, dies ist hilfreich. Ich werde einige Zeit damit verbringen, Blume et al. Zu lesen. über p-Werte der zweiten Generation scheint es ziemlich lesbar zu sein.
Uhoh

1
@uhoh, froh, dass meine Antwort auf Ihre Frage hilfreich ist.
Krantz

1

Eine Sache, die nicht erwähnt wurde, ist, dass Fehler oder Signifikanz statistische Schätzungen sind, keine tatsächlichen physikalischen Messungen: Sie hängen stark von den Daten ab, die Ihnen zur Verfügung stehen, und davon, wie Sie sie verarbeiten. Sie können nur dann einen genauen Wert für Fehler und Signifikanz angeben, wenn Sie jedes mögliche Ereignis gemessen haben. Dies ist in der Regel nicht der Fall, weit davon entfernt!

Daher ist jede Schätzung des Fehlers oder der Signifikanz, in diesem Fall jeder gegebene P-Wert, per definitionem ungenau und sollte nicht als vertrauenswürdig angesehen werden, um die zugrunde liegende Forschung zu beschreiben - geschweige denn Phänomene! - genau. Tatsächlich sollte man nicht darauf vertrauen, dass Ergebnisse übermittelt werden, OHNE zu wissen, was dargestellt wird, wie der Fehler geschätzt wurde und was zur Qualitätskontrolle der Daten unternommen wurde. Eine Möglichkeit, den geschätzten Fehler zu reduzieren, besteht beispielsweise darin, Ausreißer zu entfernen. Wenn dies auch statistisch erfolgt, wie können Sie dann tatsächlich wissen, dass die Ausreißer echte Fehler waren, anstatt unwahrscheinliche echte Messungen, die in den Fehler einbezogen werden sollten? Wie könnte der reduzierte Fehler die Aussagekraft der Ergebnisse verbessern? Was ist mit fehlerhaften Messungen in der Nähe der Schätzungen? Sie verbessern sich Der Fehler und die statistische Signifikanz können jedoch zu falschen Schlussfolgerungen führen!

Im Übrigen mache ich physikalische Modellierungen und habe selbst Modelle erstellt, bei denen der 3-Sigma-Fehler völlig unphysisch ist. Das heißt, statistisch gesehen gibt es ungefähr ein Ereignis von tausend (naja ... öfter als das, aber ich schweife ab), was zu einem völlig lächerlichen Wert führen würde. Die Größe des 3-Intervall-Fehlers in meinem Bereich entspricht in etwa einer bestmöglichen Schätzung von 1 cm, die sich ab und zu als Meter herausstellt. Dies ist jedoch in der Tat ein akzeptiertes Ergebnis, wenn ein statistisches +/- Intervall angegeben wird, das aus physikalischen, empirischen Daten in meinem Bereich berechnet wird. Sicher, die Enge des Unsicherheitsintervalls wird eingehalten, aber oft ist der Wert der Best-Guess-Schätzung ein nützlicheres Ergebnis, selbst wenn das nominelle Fehlerintervall größer wäre.

Nebenbei bemerkt, ich war einmal persönlich für einen von tausend Ausreißern verantwortlich. Ich war gerade dabei, ein Instrument zu kalibrieren, als ein Ereignis passierte, das wir messen sollten. Leider wäre dieser Datenpunkt genau einer dieser 100-fachen Ausreißer gewesen, also passieren sie in gewisser Weise und sind in dem Modellierungsfehler enthalten!


"Sie können nur dann ein genaues Maß angeben, wenn Sie jedes mögliche Ereignis gemessen haben." Hmm. Genauigkeit ist also aussichtslos? Und auch irrelevant? Erweitern Sie bitte den Unterschied zwischen Genauigkeit und Voreingenommenheit. Sind die ungenauen Schätzungen voreingenommen oder unvoreingenommen? Wenn sie unvoreingenommen sind, sind sie dann nicht ein bisschen nützlich? "Eine Möglichkeit, Fehler zu reduzieren, besteht beispielsweise darin, Ausreißer zu entfernen." Hmm. Das wird die Stichprobenvarianz verringern, aber "Fehler"? "... oft ist der Wert der besten Schätzung ein nützlicheres Ergebnis, selbst wenn das nominelle Fehlerintervall größer wäre." Ich bestreite nicht, dass ein guter Prior besser ist als ein schlechtes Experiment.
Peter Leopold

Der Text wurde ein wenig geändert, basierend auf Ihrem Kommentar. Damit meine ich, dass das statistische Fehlermaß immer eine Schätzung ist, es sei denn, Sie haben sozusagen alle möglichen Einzeltests zur Verfügung. Dies kommt nur selten vor, außer wenn beispielsweise eine festgelegte Anzahl von Personen befragt wird (nicht als Stichprobe aus einer größeren Menschenmenge oder einer allgemeinen Bevölkerung).
Geenimetsuri

1
Ich bin ein Praktiker, der eher Statistiken als Statistiker verwendet. Ich denke, ein grundlegendes Problem mit p-Werten ist, dass viele, die nicht mit dem vertraut sind, was sie sind, sie mit materieller Bedeutung verwechseln. Daher wurde ich gebeten, mithilfe von p-Werten zu bestimmen, welche Steigungen wichtig sind, unabhängig davon, ob die Steigungen groß sind oder nicht. Ein ähnliches Problem besteht darin, mit ihnen den relativen Einfluss von Variablen zu bestimmen (was für mich kritisch ist, aber in der Regressionsliteratur überraschend wenig Beachtung findet).
user54285
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.