Zulässige Vergleiche von Mixed-Effects-Modellen (hauptsächlich zufällige Effekte)


20

Ich habe mir die Modellierung gemischter Effekte mit dem lme4-Paket in R angesehen. Ich verwende hauptsächlich den lmerBefehl, also stelle ich meine Frage durch Code, der diese Syntax verwendet. Ich nehme an, eine allgemeine einfache Frage könnte sein, ob es in Ordnung ist, zwei Modelle zu vergleichen, die unter lmerVerwendung von Wahrscheinlichkeitsverhältnissen auf der Grundlage identischer Datensätze konstruiert wurden . Ich glaube, die Antwort darauf muss "nein" sein, aber ich könnte falsch sein. Ich habe widersprüchliche Informationen darüber gelesen, ob die zufälligen Effekte gleich sein müssen oder nicht, und welche Komponente der zufälligen Effekte ist damit gemeint? Also werde ich ein paar Beispiele vorstellen. Ich werde sie aus wiederholten Messdaten unter Verwendung von Wortstimuli entnehmen, vielleicht wäre so etwas wie Baayen (2008) beim Interpretieren nützlich.

Angenommen, ich habe ein Modell, in dem es zwei Prädiktoren für feste Effekte gibt. Wir nennen sie A und B und einige zufällige Effekte ... Wörter und Subjekte, die sie wahrgenommen haben. Ich könnte ein Modell wie das folgende konstruieren.

m <- lmer( y ~ A + B + (1|words) + (1|subjects) )

(Beachten Sie, dass ich absichtlich weggelassen habe data =und wir gehen davon aus, dass ich es aus REML = FALSEGründen der Klarheit immer meine )

Welche der folgenden Modelle lassen sich mit dem Wahrscheinlichkeitsverhältnis der obigen Modelle vergleichen und welche nicht?

m1 <- lmer( y ~ A + B + (A+B|words) + (1|subjects) )
m2 <- lmer( y ~ A + B + (1|subjects) )              
m3 <- lmer( y ~ A + B + (C|words) + (A+B|subjects) )
m4 <- lmer( y ~ A + B + (1|words) )                 
m5 <- lmer( y ~ A * B + (1|subjects) )   

Ich erkenne an, dass die Interpretation einiger dieser Unterschiede schwierig oder unmöglich sein kann. Aber lassen Sie uns das für eine Sekunde beiseite legen. Ich möchte nur wissen, ob an den Änderungen etwas Grundlegendes liegt, das die Möglichkeit eines Vergleichs ausschließt. Ich möchte auch wissen, ob LRs in Ordnung sind und AIC-Vergleiche ebenfalls.



(Mir ist aufgefallen, dass Sie das zuvor hinzugefügte [hypothesis-testing] -Tag entfernt haben. Nun, ich halte es jedoch für angemessen: Der Likelihood-Ratio-Test ist eindeutig ein Verfahren zum Testen von Hypothesen, und [mixed-model] + [hypothesis-testing] ] ist IMHO eine informative Tag-Kombination, siehe stats.stackexchange.com/questions/tagged/… )
Amöbe sagt Reinstate Monica

Bearbeitet, um "Test" aus LR zu entfernen. LRs können ohne Test interpretiert werden und werden dadurch paralleler zu AICs und folgen meiner wahren Absicht besser. Vielen Dank für den Hinweis.
John

Antworten:


13

Mit maximaler Wahrscheinlichkeit kann jeder dieser Faktoren mit dem AIC verglichen werden. Wenn die fixen Effekte die gleichen ( m1bis m4) sind, ist die Verwendung von REML oder ML in Ordnung, wobei REML normalerweise bevorzugt wird. Wenn sie jedoch unterschiedlich sind, kann nur ML verwendet werden. Die Interpretation ist jedoch in der Regel schwierig, wenn sich sowohl feste Effekte als auch zufällige Effekte ändern. In der Praxis empfehlen die meisten, jeweils nur den einen oder den anderen Effekt zu ändern.

Die Verwendung des Likelihood-Ratio-Tests ist möglich, aber unübersichtlich, da die übliche Chi-Quadrat-Näherung nicht gilt, wenn geprüft wird, ob eine Varianzkomponente Null ist. Siehe Anikos Antwort für Details. (Ein großes Lob an Aniko, dass sie die Frage sorgfältiger als ich gelesen und meine ursprüngliche Antwort sorgfältig genug gelesen haben, um zu bemerken, dass sie diesen Punkt verfehlt hat. Danke!)

Pinhiero / Bates ist die klassische Referenz; es beschreibt das nlmePaket, aber die Theorie ist die gleiche. Gut meistens das selbe; Doug Bates hat seine Schlußfolgerungsempfehlungen geändert, seit er dieses Buch geschrieben hat, und die neuen Empfehlungen spiegeln sich im lme4Paket wider . Aber das ist mehr, als ich hier beschreiben möchte. Eine besser lesbare Referenz ist Weiss (2005), Modelling Longitudinal Data.


Die Modelle m2 und m4 oder m1 und m3 konnten nicht mit dem Likelihood-Ratio-Test verglichen werden. Sie sind keine verschachtelten Modelle.
Makro

Ups, danke, dass du das verstanden hast, @Macro! Siehe Bearbeiten.
Aaron - Reinstate Monica

Es ging nur darum, die Modelle mit Modell m zu vergleichen, nicht miteinander. Wollen Sie damit sagen, dass die AIC-Vergleiche auch dann durchgeführt werden können, wenn sie nicht verschachtelt sind? Antworten auf diese Frage scheinen dem zu widersprechen.
John

@John, ich habe diese Antworten gelesen, aber verpasst, wo es um AIC und nicht verschachtelte geht. Ich bin mir ziemlich sicher, dass es in Ordnung ist, aber können Sie mir in den Antworten einen genaueren Hinweis auf diesen Punkt geben?
Aaron - Reinstate Monica

Ich habe die Antwort abgelehnt, weil Sie in Bezug auf die Anwendbarkeit des Likelihood-Ratio-Tests falsch (oder zumindest irreführend) sind.
Aniko

12

mmm4σ2=0

mm212χ12+12χ02χ12

Wie @Aaron feststellte, raten viele Experten jedoch davon ab, einen solchen Likelihood-Ratio-Test durchzuführen. Mögliche Alternativen sind die Informationskriterien (AIC, BIC usw.) oder das Bootstrapping des LRT.

[1] Self, SG & Liang, K. Asymptotische Eigenschaften von Maximum-Likelihood-Schätzern und Likelihood-Ratio-Tests unter nicht standardisierten Bedingungen J. Amer. Statist. Assoc., 1987, 82, 605 & ndash; 610.


1
Danke für die LR Info. Ich hatte bei der Erstellung der Modelle für das Beispiel nicht wirklich an die LR-Grenze gedacht. Ich habe gerade bemerkt, dass es in Ihrer Antwort unklar ist, ob Ihre Empfehlungen auf einfache Fälle wie den Vergleich von Modellen mit verschiedenen festen Effekten zutreffen (ML natürlich geschätzt).
John

Nein, dieses Problem tritt nur beim Testen der Varianzkomponenten auf, nicht bei den festen Effekten.
Aaron - Reinstate Monica
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.