Wie hängen Fehlergrenzen mit Konfidenzintervallen zusammen?


11

Kann mir jemand den Unterschied zwischen Fehlergrenzen und Konfidenzintervallen erklären? Im Internet sehe ich, dass diese beiden Bedeutungen synonym verwendet werden.

Ist es richtig zu sagen,

"Konfidenzintervalle werden als 1,96 angezeigt und in den Diagrammen als Fehlergrenzen angezeigt"?


1
Nützliche Diskussionen zu diesem Thema finden Sie auf unserer Website .
whuber

Antworten:


13

Das Internet ist voller Müll, wie wir alle wissen. Es ist hilfreich, maßgebliche Quellen zu finden und sich auf diese zu konzentrieren, um solche Probleme zu lösen. Eine von der American Statistical Association veröffentlichte Broschüre (Fritz Scheuren zugeschrieben und "gründlich aktualisiert um 1997") definiert die Fehlerquote als 95% -Konfidenzintervall (S. 64, rechts).

Vor diesem Hintergrund ist es überraschend, dass der Wikipedia-Artikel zur Fehlerquote eine andere Definition verwendet, obwohl er auf diese Broschüre verweist! Wikipedia schreibt,

Die Fehlerquote wird normalerweise als "Radius" (oder die Hälfte der Breite) eines Konfidenzintervalls für eine bestimmte Statistik aus einer Umfrage definiert. ... Wenn für eine Umfrage eine einzelne globale Fehlerquote angegeben wird, bezieht sich diese auf die maximale Fehlerquote für alle gemeldeten Prozentsätze unter Verwendung der vollständigen Stichprobe aus der Umfrage.

Mit anderen Worten, für Wikipedia ist das MoE die Hälfte der maximalen Breite einer Reihe von Konfidenzintervallen (die möglicherweise eine Abdeckung von 95% aufweisen).

Wir haben diese Verwirrung (oder zumindest mangelnde Standardisierung) in Kommentaren an anderer Stelle auf dieser Website erörtert. Unsere Schlussfolgerung war, dass Sie klar sein müssen, was Sie unter "Fehlerquote" verstehen, wenn Sie diesen Begriff verwenden.


7

Es gibt keine allgemein anerkannte Konvention darüber, was eine "Fehlerquote" ist, aber ich denke (wie Sie beobachtet haben), dass sie am häufigsten als Radius eines Konfidenzintervalls verwendet wird , entweder in der ursprünglichen Skala der Schätzung oder als Prozentsatz einer Schätzung. Manchmal wird es als Synonym für den "Standardfehler" verwendet, daher müssen Sie darauf achten, dass andere verstehen, was Sie meinen, wenn Sie es verwenden.

Ein "Konfidenzintervall" hat eine universelle Konvention über seine Bedeutung. Grundsätzlich ist es der Bereich möglicher Schätzungen, die durch einen Schätzprozess generiert werden und in X% der Fälle (95% werden am häufigsten verwendet) den wahren Wert des zu schätzenden Parameters enthalten. Dieses Konzept eines "Prozesses", der X% der Zeit den wahren Wert erzeugen würde, ist etwas kontraintuitiv und darf nicht mit einem "Glaubwürdigkeitsintervall" aus der Bayes'schen Folgerung verwechselt werden, das eine viel intuitivere Definition hat, es aber ist nicht dasselbe wie das weit verbreitete Konfidenzintervall.

Ihr tatsächliches Angebot ist etwas chaotisch und muss wie beschrieben geringfügig korrigiert werden. Ich würde diese zusätzliche Verwendung des Wortes "Rand" vermeiden und "Fehlerbalken" bevorzugen. So:

"Konfidenzintervalle werden mit 1,96 multipliziert mit den relevanten Standardfehlern geschätzt und in den Diagrammen als Fehlerbalken angezeigt."

(Dies lässt die Frage außer Acht, ob dies eine gute Methode zur Berechnung von Konfidenzintervallen ist, die von Ihrem Modell usw. abhängt und nicht relevant ist.)

Abschließender Kommentar zur Terminologie - Ich mag "Standardfehler" nicht, was nur "Standardabweichung der Schätzung" bedeutet. oder "Stichprobenfehler" im Allgemeinen - ich denke lieber in Bezug auf Zufälligkeit und Varianz der Statistiken als in Bezug auf "Fehler". Aber ich habe oben den Begriff "Standardfehler" verwendet, weil er wohl so weit verbreitet ist.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.