Ich habe widersprüchliche Informationen zu der Frage gefunden: " Wenn man ein 95% -Konfidenzintervall (CI) aus einer Differenz der Mittelwerte oder einer Differenz der Anteile erstellt, sind alle Werte innerhalb des CI gleich wahrscheinlich? Oder ist die Punktschätzung die wahrscheinlichste mit Werten in der Nähe der "Schwänze" des CI weniger wahrscheinlich als in der Mitte des CI?
Wenn zum Beispiel ein randomisierter klinischer Studienbericht besagt, dass das relative Mortalitätsrisiko bei einer bestimmten Behandlung 1,06 beträgt (95% CI 0,96 bis 1,18), ist die Wahrscheinlichkeit, dass 0,96 der richtige Wert ist, die gleiche wie 1,06?
Ich habe online viele Hinweise auf dieses Konzept gefunden, aber die folgenden beiden Beispiele spiegeln die darin enthaltene Unsicherheit wider:
Lisa Sullivans Modul über Konfidenzintervalle lautet:
Die Konfidenzintervalle für die liefern einen Bereich wahrscheinlicher Werte für ( ). Es ist wichtig zu beachten, dass alle Werte im Konfidenzintervall gleich wahrscheinlich Schätzungen des wahren Werts von ( ) sind.
Dieser Blogpost mit dem Titel Within the Margin of Error lautet:
Was ich im Sinn habe, ist ein Missverständnis über die „Fehlerquote“, die alle Punkte innerhalb des Konfidenzintervalls gleich wahrscheinlich behandelt, als ob der zentrale Grenzwertsatz eine begrenzte Gleichverteilung anstelle einer t- Verteilung impliziert . [...]
Das, was über "Fehlertoleranz" spricht, ist, dass Möglichkeiten, die nahe an der Punktschätzung liegen, viel wahrscheinlicher sind als Möglichkeiten, die am Rande der Grenze liegen ".
Diese scheinen widersprüchlich, also was ist richtig?