Ich analysiere einen Datensatz unter Verwendung eines gemischten Effektmodells mit einem festen Effekt (Bedingung) und zwei zufälligen Effekten (Teilnehmer aufgrund des innerhalb des Motivs und des Paares). Das Modell wurde mit dem erzeugten lme4
Paket: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp)
.
Als nächstes führte ich einen Likelihood-Ratio-Test dieses Modells gegen das Modell ohne festen Effekt (Bedingung) durch und stellte einen signifikanten Unterschied fest. Mein Datensatz enthält 3 Bedingungen, daher möchte ich einen Mehrfachvergleich durchführen, bin mir jedoch nicht sicher, welche Methode ich verwenden soll . Ich habe eine Reihe ähnlicher Fragen in CrossValidated und anderen Foren gefunden, bin aber immer noch ziemlich verwirrt.
Nach allem, was ich gesehen habe, haben die Leute vorgeschlagen, mit
1. Das lsmeans
Paket - lsmeans(exp.model,pairwise~condition)
was mir die folgende Ausgabe gibt:
condition lsmean SE df lower.CL upper.CL
Condition1 0.6538060 0.03272705 47.98 0.5880030 0.7196089
Condition2 0.7027413 0.03272705 47.98 0.6369384 0.7685443
Condition3 0.7580522 0.03272705 47.98 0.6922493 0.8238552
Confidence level used: 0.95
$contrasts
contrast estimate SE df t.ratio p.value
Condition1 - Condition2 -0.04893538 0.03813262 62.07 -1.283 0.4099
Condition1 - Condition3 -0.10424628 0.03813262 62.07 -2.734 0.0219
Condition2 - Condition3 -0.05531090 0.03813262 62.07 -1.450 0.3217
P value adjustment: tukey method for comparing a family of 3 estimates
2. Das multcomp
Paket auf zwei verschiedene Arten - mit mcp
glht(exp.model,mcp(condition="Tukey"))
resultierend in
Simultaneous Tests for General Linear Hypotheses
Multiple Comparisons of Means: Tukey Contrasts
Fit: lmer(formula = outcome ~ condition + (1 | participant) + (1 | pair),
data = exp, REML = FALSE)
Linear Hypotheses:
Estimate Std. Error z value Pr(>|z|)
Condition2 - Condition1 == 0 0.04894 0.03749 1.305 0.392
Condition3 - Condition1 == 0 0.10425 0.03749 2.781 0.015 *
Condition3 - Condition2 == 0 0.05531 0.03749 1.475 0.303
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)
und mit lsm
glht(exp.model,lsm(pairwise~condition))
resultierenden in
Note: df set to 62
Simultaneous Tests for General Linear Hypotheses
Fit: lmer(formula = outcome ~ condition + (1 | participant) + (1 | pair),
data = exp, REML = FALSE)
Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
Condition1 - Condition2 == 0 -0.04894 0.03749 -1.305 0.3977
Condition1 - Condition3 == 0 -0.10425 0.03749 -2.781 0.0195 *
Condition2 - Condition3 == 0 -0.05531 0.03749 -1.475 0.3098
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)
Wie Sie sehen, führen die Methoden zu unterschiedlichen Ergebnissen. Es ist das erste Mal, dass ich mit R und Statistiken arbeite, also könnte etwas schief gehen, aber ich würde nicht wissen, wo. Meine Fragen sind:
Was sind die Unterschiede zwischen den vorgestellten Methoden? Ich habe in einer Antwort auf verwandte Fragen gelesen, dass es um die Freiheitsgrade ( lsmeans
vs. glht
) geht.
Gibt es Regeln oder Empfehlungen, wann welche verwendet werden sollen, dh Methode 1 ist für diese Art von Datensatz / Modell usw. geeignet? Welches Ergebnis soll ich melden? Ohne es besser zu wissen, würde ich wahrscheinlich einfach den höchsten p-Wert melden, den ich bekommen habe, um auf Nummer sicher zu gehen, aber es wäre schön, einen besseren Grund zu haben. Vielen Dank