Es scheint mir also, dass die Gewichtsfunktion in lm Beobachtungen umso mehr Gewicht verleiht, je größer der 'Gewicht'-Wert der zugehörigen Beobachtung ist, während die lme-Funktion in lme genau das Gegenteil bewirkt. Dies kann mit einer einfachen Simulation überprüft werden.
#make 3 vectors- c is used as an uninformative random effect for the lme model
a<-c(1:10)
b<-c(2,4,6,8,10,100,14,16,18,20)
c<-c(1,1,1,1,1,1,1,1,1,1)
Wenn Sie jetzt ein Modell ausführen, bei dem Sie die Beobachtungen basierend auf der Umkehrung der abhängigen Variablen in lm gewichten, können Sie in nlme nur dann genau das gleiche Ergebnis erzielen, wenn Sie nur mit der abhängigen Variablen gewichten, ohne die Umkehrung vorzunehmen.
summary(lm(b~a,weights=1/b))
summary(lme(b~a,random=~1|c,weights=~b))
Sie können dies umdrehen und sehen, dass die Umkehrung wahr ist. Wenn Sie Gewichte = b in lm angeben, sind Gewichte = 1 / b erforderlich, um ein passendes lme-Ergebnis zu erhalten.
Also, ich verstehe so viel, ich möchte nur eine Sache validieren und eine Frage zu einer anderen stellen.
- Wenn ich meine Daten basierend auf der Umkehrung der abhängigen Variablen gewichten möchte, ist es in Ordnung, nur Gewichte = ~ (abhängige Variable) innerhalb von lme zu codieren?
- Warum ist ich so geschrieben, dass ich mit Gewichten ganz anders umgehen kann als ich? Was ist der andere Zweck als Verwirrung zu stiften?
Jeder Einblick wäre dankbar!
lm()
mit S und verschiedenen Büchern kompatibel sein, aber es zielte darauf ab, flexibler zu sein, sodass die Heterogenität flexibler modelliert werden konnte als eslm
erlaubt.