Ich habe kürzlich eine Zeitung gelesen, die Zufälligkeit in ihr Vertrauen und ihre glaubwürdigen Intervalle einbezog, und ich habe mich gefragt, ob dies Standard ist (und wenn ja, warum es eine vernünftige Sache ist, dies zu tun). Um die Notation zu setzen, nehmen wir an, dass unsere Daten und wir daran interessiert sind, Intervalle für einen Parameter erstellen . Ich bin es gewohnt, Vertrauens- / Glaubwürdigkeitsintervalle durch den Aufbau einer Funktion zu konstruieren:
und unser Intervall sei .
Dies ist in dem Sinne zufällig, dass es von den Daten abhängt, aber abhängig von den Daten ist es nur ein Intervall. Dieses Papier definiert stattdessen
und auch eine Sammlung von gleichförmigen Zufallsvariablen auf . Es definiert das zugehörige Intervall als . Beachten Sie, dass dies in hohem Maße von der Hilfszufälligkeit abhängt, unabhängig davon, was aus den Daten hervorgeht. [ 0 , 1 ] I = { θ ∈ Θ
Ich bin sehr gespannt, warum man das machen würde. Ich halte es für sinnvoll, die Vorstellung eines Intervalls von Funktionen wie zu Funktionen wie lockern"; Es ist eine Art gewichtetes Konfidenzintervall. Ich kenne keine Referenzen dafür (und würde alle Hinweise schätzen), aber es scheint ganz natürlich. Ich kann mir jedoch keinen Grund vorstellen, zusätzliche Zufälligkeiten hinzuzufügen. g x
Hinweise auf die Literatur / Gründe hierfür wären willkommen!