Ich habe einen Datensatz, der aus einer Reihe von monatlichen Fallzählungen für "kaputte Stöcke" von einer Handvoll Websites besteht. Ich versuche, eine einzige zusammenfassende Schätzung aus zwei verschiedenen Techniken zu erhalten:
Technik 1: Passen Sie einen "gebrochenen Stab" mit einem Poisson-GLM mit einer 0/1-Indikatorvariablen an und verwenden Sie eine Zeit- und Zeitvariable ^ 2, um Trends in der Zeit zu steuern. Die Schätzung und die SE dieser 0/1-Indikatorvariablen werden unter Verwendung einer ziemlich geraden Auf- und Ab-Methode der Momententechnik oder unter Verwendung des tlnise-Pakets in R zusammengefasst, um eine "Bayes'sche" Schätzung zu erhalten. Dies ähnelt dem, was Peng und Dominici mit Luftverschmutzungsdaten tun, jedoch mit weniger Standorten (~ ein Dutzend).
Technik 2: Verzichten Sie auf einen Teil der ortsspezifischen Steuerung für zeitliche Trends und verwenden Sie ein lineares gemischtes Modell. Insbesondere:
lmer(cases ~ indicator + (1+month+I(month^2) + offset(log(p)), family="poisson", data=data)
Meine Frage betrifft die Standardfehler, die sich aus diesen Schätzungen ergeben. Der Standardfehler von Technik 1, der tatsächlich eine wöchentliche anstelle einer monatlichen Zeit verwendet und daher genauer sein sollte , weist einen Standardfehler bei der Schätzung von ~ 0,206 für die Methode der Momente und ~ 0,306 für die Zeit auf.
Die lmer-Methode ergibt einen Standardfehler von ~ 0,09. Die Effektschätzungen liegen ziemlich nahe beieinander, sodass es nicht so aussieht, als würden sie sich nur auf verschiedene zusammenfassende Schätzungen beschränken, da das gemischte Modell wesentlich effizienter ist.
Ist das etwas Vernünftiges zu erwarten? Wenn ja, warum sind gemischte Modelle so viel effizienter? Ist dies ein allgemeines Phänomen oder ein spezifisches Ergebnis dieses Modells?