Verschiedene Beschreibungen zur Modellauswahl für zufällige Effekte von linearen gemischten Modellen weisen an, REML zu verwenden. Ich kenne den Unterschied zwischen REML und ML auf einer bestimmten Ebene, aber ich verstehe nicht, warum REML verwendet werden sollte, weil ML voreingenommen ist. Ist es beispielsweise falsch, mit ML eine LRT für einen Varianzparameter eines Normalverteilungsmodells durchzuführen (siehe folgenden Code)? Ich verstehe nicht, warum es bei der Modellauswahl wichtiger ist, unvoreingenommen zu sein als ML. Ich denke, die ultimative Antwort muss lauten: "Weil die Modellauswahl mit REML besser funktioniert als mit ML", aber ich möchte ein bisschen mehr darüber wissen. Ich habe die Ableitungen von LRT und AIC nicht gelesen (ich bin nicht gut genug, um sie gründlich zu verstehen), aber wenn REML explizit in den Ableitungen verwendet wird, muss ich nur wissen, dass dies tatsächlich ausreicht (z. B.
n <- 100
a <- 10
b <- 1
alpha <- 5
beta <- 1
x <- runif(n,0,10)
y <- rnorm(n,a+b*x,alpha+beta*x)
loglik1 <- function(p,x,y){
a <- p[1]
b <- p[2]
alpha <- p[3]
-sum(dnorm(y,a+b*x,alpha,log=T))
}
loglik2 <- function(p,x,y){
a <- p[1]
b <- p[2]
alpha <- p[3]
beta <- p[4]
-sum(dnorm(y,a+b*x,alpha+beta*x,log=T))
}
m1 <- optim(c(a,b,alpha),loglik1,x=x,y=y)$value
m2 <- optim(c(a,b,alpha,beta),loglik2,x=x,y=y)$value
D <- 2*(m1-m2)
1-pchisq(D,df=1) # p-value