Dies wird für @ Xi'an eher eine Frage als eine Antwort sein.
Ich wollte antworten, dass eine hintere Varianz
wobei die Anzahl der Versuche, die Anzahl der Erfolge und die Koeffizienten des Beta-Prior sind und die vorherige Varianz überschreiten
ist auch im Binomialmodell möglich, basierend auf dem folgenden Beispiel, in dem Wahrscheinlichkeit und Prior sind in starkem Kontrast, so dass der hintere "zu weit dazwischen" ist. Es scheint dem Zitat von Gelman zu widersprechen.nkα0,β0V(θ)=α 0 β0
V.( θ | y) = α1β1( α1+ β1)2( α1+ β1+ 1 )= ( α0+ k ) ( n - k + β0)( α0+ n + β0)2( α0+ n + β0+ 1 ),
nkα0, β0V.( θ ) = α0β0( α0+β0)2(α0+β0+ 1 )
n <- 10
k <- 1
alpha0 <- 100
beta0 <- 20
theta <- seq(0.01,0.99,by=0.005)
likelihood <- theta^k*(1-theta)^(n-k)
prior <- function(theta,alpha0,beta0) return(dbeta(theta,alpha0,beta0))
posterior <- dbeta(theta,alpha0+k,beta0+n-k)
plot(theta,likelihood,type="l",ylab="density",col="lightblue",lwd=2)
likelihood_scaled <- dbeta(theta,k+1,n-k+1)
plot(theta,likelihood_scaled,type="l",ylim=c(0,max(c(likelihood_scaled,posterior,prior(theta,alpha0,beta0)))),ylab="density",col="lightblue",lwd=2)
lines(theta,prior(theta,alpha0,beta0),lty=2,col="gold",lwd=2)
lines(theta,posterior,lty=3,col="darkgreen",lwd=2)
legend("top",c("Likelihood","Prior","Posterior"),lty=c(1,2,3),lwd=2,col=c("lightblue","gold","darkgreen"))
> (postvariance <- (alpha0+k)*(n-k+beta0)/((alpha0+n+beta0)^2*(alpha0+n+beta0+1)))
[1] 0.001323005
> (priorvariance <- (alpha0*beta0)/((alpha0+beta0)^2*(alpha0+beta0+1)))
[1] 0.001147842
Daher schlägt dieses Beispiel eine größere posteriore Varianz im Binomialmodell vor.
Dies ist natürlich nicht die erwartete posteriore Varianz. Liegt dort die Diskrepanz?
Die entsprechende Abbildung ist