Für können Sie direkt aus Ihrer Gleichung die Wahrscheinlichkeit dass die hintere Dichte entlang der Parallellinien konstant ist, bei denen konstante Werte annimmt. Der hintere Teil ist also in der Tat unpassend und hat die Form eines Kamms für . Grundsätzlich ist jede Regressionslinie, die der beobachteten Antwort bei , gleich gut.k =1p ( α , β |y1,x1)α + βxichk =1x1
Nehmen wir als nächstes an, wir haben Beobachtungen. Betrachten Sie die Neuparametrisierung durch
Da dies eine lineare Transformation von mit ist Eine konstante Determinante des Prior für ist auch über einheitlich , vorausgesetzt, . Betrachten Sie die weitere Neuparametrisierung, die inverse Logit-Transformation
für . Es ist klar, dass auch a priori unabhängig von den durch angegebenen Dichten sind
k = 2η1η2= α + βx1= α + βx2
α , βη1,η2R.2x1≠x2pich=11 +e- -ηich,
i = 1 , 2p1,p2π(pich) = π(ηich)∣∣dηichdpich∣∣∝ddpichlnpich1 -pich=1( 1 -pich)pich
Dies sind sogenannte unpassende Haldane-Priors , die als eine bestimmte Form der Begrenzung der Dichte einer Beta-Verteilung interpretiert werden können, wobei beide Parameter gegen Null gehen. Bedingt durch die Daten , vorausgesetzt, dass , ist die hintere Randdichte für jedes die richtige Beta-Verteilung mit den Parametern . Bei der Rücktransformation müssen auch die posterioren Verteilungen von und korrekt sein. Dies gilt außer in besonderen Fällen wie einemy1,y20 <yich< npichyich, n -yich(η1,η2)( α , β)yichNehmen Sie einen Wert von 0 oder In diesem Fall ist die normalisierende Beta-Funktion unendlich und der hintere Teil von (und damit der hintere Teil von und ) unpassend.nB (yich, n -yich)pichαβ
Für Beobachtungen muss auch der Posterior geeignet sein, da die nicht normalisierte posteriore Dichte von basierend auf den ersten Beobachtungen durch den Posterior begrenzt wird .k > 2α , βk = 2