Mein gegenwärtiges Verständnis des Begriffs "Konfidenzintervall mit Konfidenzniveau " ist, dass, wenn wir das Konfidenzintervall mehrmals (jedes Mal mit einer neuen Stichprobe) berechnen würden, es den korrekten Parameter der Zeit enthalten würde.
Obwohl mir klar ist, dass dies nicht mit der Wahrscheinlichkeit übereinstimmt, dass der wahre Parameter in diesem Intervall liegt, möchte ich etwas klarstellen.
[Hauptaktualisierung]
Bevor wir ein 95% -Konfidenzintervall berechnen, besteht eine Wahrscheinlichkeit von 95%, dass das von uns berechnete Intervall den wahren Parameter abdeckt. Nachdem wir das Konfidenzintervall berechnet und ein bestimmtes Intervall , können wir dies nicht mehr sagen. Wir können nicht einmal eine Art nicht-frequentistisches Argument vorbringen, dass wir zu 95% sicher sind, dass der wahre Parameter in ; Wenn wir könnten, würde dies Gegenbeispielen wie diesem widersprechen: Was genau ist ein Konfidenzintervall?
Ich möchte dies nicht zu einer Debatte über die Wahrscheinlichkeitsphilosophie machen. Stattdessen suche ich nach einer präzisen mathematischen Erklärung, wie und warum das Sehen des bestimmten Intervalls die Wahrscheinlichkeit von 95% ändert (oder nicht ändert), die wir hatten, bevor wir dieses Intervall sahen. Wenn Sie behaupten, dass "nach dem Betrachten des Intervalls der Begriff der Wahrscheinlichkeit keinen Sinn mehr ergibt ", dann lassen Sie uns gut daran arbeiten, die Wahrscheinlichkeit so zu interpretieren, dass sie Sinn ergibt .
Etwas präziser:
Angenommen, wir programmieren einen Computer, um ein Konfidenzintervall von 95% zu berechnen. Der Computer gibt Zahlen ein, berechnet ein Intervall und zeigt mir das Intervall erst an, wenn ich ein Passwort eingebe. Wie hoch ist die Wahrscheinlichkeit, dass das Intervall den wahren Parameter enthält, bevor ich das Kennwort eingegeben und das Intervall gesehen habe (aber nachdem der Computer es bereits berechnet hat)? Es sind 95%, und dieser Teil steht nicht zur Debatte : Dies ist die Interpretation der Wahrscheinlichkeit, die mich für diese bestimmte Frage interessiert (mir ist klar, dass es wichtige philosophische Probleme gibt, die ich unterdrücke, und dies ist beabsichtigt).
Aber sobald ich das Passwort eingebe und der Computer mir das berechnete Intervall anzeigt, kann sich die Wahrscheinlichkeit (dass das Intervall den wahren Parameter enthält) ändern. Jede Behauptung, dass sich diese Wahrscheinlichkeit niemals ändert, würde dem obigen Gegenbeispiel widersprechen. In diesem Gegenbeispiel könnte sich die Wahrscheinlichkeit von 50% auf 100% ändern, aber ...
Gibt es Beispiele, bei denen sich die Wahrscheinlichkeit auf etwas anderes als 100% oder 0% ändert (EDIT: und wenn ja, welche)?
Gibt es Beispiele, bei denen sich die Wahrscheinlichkeit nach dem Anzeigen des bestimmten Intervalls nicht ändert (dh die Wahrscheinlichkeit, dass der wahre Parameter in liegt , beträgt immer noch 95%)?
Wie (und warum) ändert sich die Wahrscheinlichkeit im Allgemeinen, nachdem der Computer ausgespuckt hat ?
[Bearbeiten]
Vielen Dank für die tollen Antworten und hilfreichen Diskussionen!