Die Standarddefinition von (sagen wir) einem 95% -Konfidenzintervall (CI) erfordert lediglich, dass die Wahrscheinlichkeit, dass es den wahren Parameter enthält, 95% beträgt. Offensichtlich ist dies nicht eindeutig. Die Sprache, die ich gesehen habe, legt nahe, dass es unter den vielen gültigen CI normalerweise sinnvoll ist, so etwas wie das kürzeste oder symmetrische oder genau bekannte zu finden, selbst wenn einige Verteilungsparameter unbekannt sind usw. Mit anderen Worten, es scheint keine zu geben offensichtliche Hierarchie dessen, was CI "besser" ist als andere.
Ich dachte jedoch, dass eine äquivalente Definition von CI darin besteht, dass es aus allen Werten besteht, sodass die Nullhypothese, dass der wahre Parameter diesem Wert entspricht, nach dem Betrachten der realisierten Stichprobe nicht auf dem entsprechenden Signifikanzniveau verworfen wird. Dies deutet darauf hin, dass wir das CI automatisch erstellen können, solange wir einen Test auswählen, den wir mögen. Und es gibt eine Standardpräferenz unter Tests, die auf dem Konzept von UMP basieren (oder UMP unter unvoreingenommenen Tests).
Gibt es einen Vorteil, wenn CI als das definiert wird, das dem UMP-Test entspricht, oder so ähnlich?