Äquivalenz von (0 + Faktor | Gruppe) und (1 | Gruppe) + (1 | Gruppe: Faktor) Zufallseffektspezifikationen bei zusammengesetzter Symmetrie


13

Douglas Bates gibt an, dass die folgenden Modelle äquivalent sind, "wenn die Varianz-Kovarianz-Matrix für die vektorwertigen Zufallseffekte eine spezielle Form hat, die als zusammengesetzte Symmetrie bezeichnet wird" ( Folie 91 in dieser Präsentation ):

m1 <- lmer(y ~ factor + (0 + factor|group), data)
m2 <- lmer(y ~ factor + (1|group) + (1|group:factor), data)

Insbesondere verwendet Bates dieses Beispiel:

library(lme4)
data("Machines", package = "MEMSS")

m1a <- lmer(score ~ Machine + (0 + Machine|Worker), Machines)
m2a <- lmer(score ~ Machine + (1|Worker) + (1|Worker:Machine), Machines)

mit den entsprechenden Ausgängen:

print(m1a, corr = FALSE)

Linear mixed model fit by REML ['lmerMod']
Formula: score ~ Machine + (0 + Machine | Worker)
   Data: Machines
REML criterion at convergence: 208.3112
Random effects:
 Groups   Name     Std.Dev. Corr     
 Worker   MachineA 4.0793            
          MachineB 8.6253   0.80     
          MachineC 4.3895   0.62 0.77
 Residual          0.9616            
Number of obs: 54, groups:  Worker, 6
Fixed Effects:
(Intercept)     MachineB     MachineC  
     52.356        7.967       13.917  

print(m2a, corr = FALSE)

Linear mixed model fit by REML ['lmerMod']
Formula: score ~ Machine + (1 | Worker) + (1 | Worker:Machine)
   Data: Machines
REML criterion at convergence: 215.6876
Random effects:
 Groups         Name        Std.Dev.
 Worker:Machine (Intercept) 3.7295  
 Worker         (Intercept) 4.7811  
 Residual                   0.9616  
Number of obs: 54, groups:  Worker:Machine, 18; Worker, 6
Fixed Effects:
(Intercept)     MachineB     MachineC  
     52.356        7.967       13.917

Kann jemand den Unterschied zwischen den Modellen erklären und wie man m1sich auf m2(gegebene zusammengesetzte Symmetrie) auf intuitive Weise reduziert ?


6
+1 und, imho, das ist absolut thematisch. Stimmen Sie ab, um wieder zu öffnen.
Amöbe sagt Reinstate Monica

2
@Peter Flom warum betrachtest du diese frage als off-topic?
statmerkur

3
Es war vielleicht nicht klar, dass Sie eher nach den Modellen als nach der lme4Syntax fragten . Es wäre hilfreich - und würde den Pool der potenziellen Antwortenden erweitern -, wenn Sie sie für Personen erläutern würden, die sich nicht auskennen lme4.
Scortchi

Es sieht so aus, als würde es um Codierung gehen.
Peter Flom - Wiedereinsetzung von Monica

1
Wenn es nützlich ist, finden Sie hier zwei gute Beiträge dazu, was die lme4-Syntax bewirkt und welche zusammengesetzte Symmetrie im Kontext gemischter Modelle vorliegt (siehe akzeptierte Antworten auf beide Fragen). stats.stackexchange.com/questions/13166/rs-lmer-cheat-sheet und stats.stackexchange.com/questions/15102/…
Jacob Socolar

Antworten:


11

In diesem Beispiel gibt es drei Beobachtungen für jede Kombination der drei Maschinen (A, B, C) und der sechs Arbeiter. Ich werde , um eine n- dimensionale Identitätsmatrix zu bezeichnen, und 1 n , um einen n- dimensionalen Vektor von Einsen zu bezeichnen. Nehmen wir an, y ist der Vektor der Beobachtungen, von dem ich annehme, dass er vom Arbeiter, dann von der Maschine und dann von der Replikation angeordnet wird. Sei μ der entsprechende Erwartungswert (zB die festen Effekte) und sei γ ein Vektor gruppenspezifischer Abweichungen von den Erwartungswerten (zB die zufälligen Effekte). Bedingt durch γ kann das Modell für y geschrieben werden:ichnn1nnyμγγy

yN(μ+γ,σy2I54)

wobei die "Rest" -Varianz ist.σy2

Um zu verstehen, wie die Kovarianzstruktur der Zufallseffekte eine Kovarianzstruktur unter den Beobachtungen induziert, ist es intuitiver, mit der äquivalenten "Rand" -Darstellung zu arbeiten , die über die Zufallseffekte . Die Randform dieses Modells ist,γ

yN(μ,σy2I54+Σ)

Hierbei ist eine Kovarianzmatrix, die von der Struktur von γ abhängt (z. B. die den Zufallseffekten zugrunde liegenden "Varianzkomponenten"). Ich werde Σ als "marginale" Kovarianz bezeichnen.ΣγΣ

In deinem m1zerfallen die zufälligen Effekte wie folgt :

γ=Zθ

Wo ist eine Design - Matrix , dass die Zufallskoeffizienten auf Beobachtungen abbildet, und θ T = [ θ 1 , A , θ 1 , B , θ 1 , C ... θ 6 , A , & thgr; 6 , B , θ 6 , C ] ist der 18-dimensionale Vektor von zufälligen Koeffizienten, geordnet nach Arbeiter und Maschine, und wird wie folgt verteilt:Z=I1813θT=[θ1,A,θ1,B,θ1,Cθ6,A,θ6,B,θ6,C]

θN(0,I6Λ)

Hier ist die Kovarianz der Zufallskoeffizienten. Die Annahme einer zusammengesetzten Symmetrie bedeutet, dass Λ zwei Parameter hat, die ich σ θ und τ nennen werde , und die Struktur:ΛΛσθτ

Λ=[σθ2+τ2τ2τ2τ2σθ2+τ2τ2τ2τ2σθ2+τ2]

(Mit anderen Worten, in der Korrelationsmatrix, die zugrunde liegt, sind alle Elemente auf der Offdiagonale auf den gleichen Wert gesetzt.)Λ

Die durch diese zufälligen Effekte induzierte marginale Kovarianzstruktur ist , so dass die Varianz einer gegebenen Beobachtung σ 2 θ + τ 2 + σ 2 y und die Kovarianz zwischen zwei (getrennten) Beobachtungen ist von Arbeitern i , j und Maschinen u , v ist: c o v ( y i , u , y j , v ) =Σ=Z(I6Λ)ZTσθ2+τ2+σy2i,ju,v

cov(yi,u,yj,v)={0if ijτ2if i=j,uvσθ2+τ2if i=j,u=v

Für Sie m2zerfallen die zufälligen Effekte in:

γ=Zω+Xη

X=I619ωT=[ω1,A,ω1,B,ω1,C,,ω6,A,ω6,B,ω6,C]ηT=[η1,,η6]

ηN(0,ση2I6)
ωN(0,σω2I18)
ση2,σω2

m2Σ=σω2ZZT+ση2XXTσω2+ση2+σy2i,ju,v

cov(yi,u,yj,v)={0if ijση2if i=j,uvσω2+ση2if i=j,u=v

So ... σθ2σω2 and τ2ση2. If m1 assumed compound symmetry (which it doesn't with your call to lmer, because the random effects covariance is unstructured).

Brevity is not my strong point: this is all just a long, convoluted way of saying that each model has two variance parameters for the random effects, and are just two different ways of writing of the same "marginal" model.

In code ...

sigma_theta <- 1.8
tau         <- 0.5
sigma_eta   <- tau
sigma_omega <- sigma_theta
Z <- kronecker(diag(18), rep(1,3))
rownames(Z) <- paste(paste0("worker", rep(1:6, each=9)), 
                     rep(paste0("machine", rep(1:3, each=3)),6))
X <- kronecker(diag(6), rep(1,9))
rownames(X) <- rownames(Z)
Lambda <- diag(3)*sigma_theta^2 + tau^2

# marginal covariance for m1:
Z%*%kronecker(diag(6), Lambda)%*%t(Z)
# for m2:
X%*%t(X)*sigma_eta^2 + Z%*%t(Z)*sigma_omega^2

1
Very nice answer! But I think the phrase "machine nested within worker" could be misleading as the same three machines appear in more than one (in fact every) level of worker.
statmerkur

@statmerkur Thanks, I've tried to clarify this line. Let me know if you have another suggestion.
Nate Pope

1
Should X be defined as X=I619?
S. Catterall Reinstate Monica

1
@S.Catterall Yup, that's a typo -- thanks for catching it! I've fixed in my answer.
Nate Pope

2
@statmerkur can you clarify what you mean? There's no continuous covariates here, so not sure what you mean by "slope". The way I think of the model is that there are systematic differences in the mean of the response between machines (the fixed effects); then a random deviation for each worker (random intercepts/worker); then a random deviation for each machine-worker combination; and finally a random deviation per observation. The greater the variance of the random deviations per worker, the more correlated observations from a given worker would be, etc.
Nate Pope
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.