Ich analysiere einige Verhaltensdaten mit lme4
in R
, hauptsächlich nach Bodo Winters hervorragenden Tutorials , aber ich verstehe nicht, ob ich mit Interaktionen richtig umgehe. Schlimmer noch, niemand anderes, der an dieser Forschung beteiligt ist, verwendet gemischte Modelle. Ich bin also ein bisschen treibend, wenn es darum geht, sicherzustellen, dass die Dinge richtig sind.
Anstatt nur um Hilfe zu rufen, dachte ich, ich sollte mein Bestes geben, um das Problem zu interpretieren, und dann um Ihre kollektiven Korrekturen bitten. Einige andere Nebeneffekte sind:
- Während des Schreibens habe ich diese Frage gefunden , die zeigt, dass
nlme
direkter p-Werte für Interaktionsterme angegeben werden, aber ich denke, es ist immer noch gültig, in Bezug auf zu fragenlme4
. Livius'
Die Antwort auf diese Frage lieferte Links zu vielen zusätzlichen Lektüren, die ich in den nächsten Tagen durcharbeiten werde. Daher werde ich alle Fortschritte kommentieren, die sich daraus ergeben.
In meinen Daten habe ich eine abhängige Variable dv
, eine condition
Manipulation (0 = Kontrolle, 1 = experimentelle Bedingung, die zu einer höheren führen sollte dv
) und auch eine Voraussetzung mit der Bezeichnung appropriate
: Versuche, die dafür codiert sind, 1
sollten den Effekt zeigen, aber Versuche, die codiert werden 0
könnten nicht, weil ein entscheidender Faktor fehlt.
Ich habe auch zwei zufällige Abschnitte für subject
und für target
reflektierte dv
Werte in jedem Subjekt und in jedem der 14 gelösten Probleme aufgenommen (jeder Teilnehmer löste sowohl eine Kontroll- als auch eine experimentelle Version jedes Problems).
library(lme4)
data = read.csv("data.csv")
null_model = lmer(dv ~ (1 | subject) + (1 | target), data = data)
mainfx_model = lmer(dv ~ condition + appropriate + (1 | subject) + (1 | target),
data = data)
interaction_model = lmer(dv ~ condition + appropriate + condition*appropriate +
(1 | subject) + (1 | target), data = data)
summary(interaction_model)
Ausgabe:
## Linear mixed model fit by REML ['lmerMod']
## ...excluded for brevity....
## Random effects:
## Groups Name Variance Std.Dev.
## subject (Intercept) 0.006594 0.0812
## target (Intercept) 0.000557 0.0236
## Residual 0.210172 0.4584
## Number of obs: 690, groups: subject, 38; target, 14
##
## Fixed effects:
## Estimate Std. Error t value
## (Intercept) 0.2518 0.0501 5.03
## conditioncontrol 0.0579 0.0588 0.98
## appropriate -0.0358 0.0595 -0.60
## conditioncontrol:appropriate -0.1553 0.0740 -2.10
##
## Correlation of Fixed Effects:
## ...excluded for brevity.
ANOVA zeigt interaction_model
dann eine signifikant bessere Anpassung als mainfx_model
, woraus ich schließe, dass eine signifikante Wechselwirkung vorliegt (p = 0,035).
anova(mainfx_model, interaction_model)
Ausgabe:
## ...excluded for brevity....
## Df AIC BIC logLik deviance Chisq Chi Df Pr(>Chisq)
## mainfx_model 6 913 940 -450 901
## interaction_model 7 910 942 -448 896 4.44 1 0.035 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Von dort isoliere ich eine Teilmenge der Daten, für die die appropriate
Anforderung erfüllt ist (dh appropriate = 1
), und passe dafür ein Nullmodell und ein Modell an, das condition
als Effekt enthält, vergleiche die beiden Modelle erneut mit ANOVA und siehe, finde das condition
ist ein signifikanter Prädiktor.
good_data = data[data$appropriate == 1, ]
good_null_model = lmer(dv ~ (1 | subject) + (1 | target), data = good_data)
good_mainfx_model = lmer(dv ~ condition + (1 | subject) + (1 | target), data = good_data)
anova(good_null_model, good_mainfx_model)
Ausgabe:
## Data: good_data
## models:
## good_null_model: dv ~ (1 | subject) + (1 | target)
## good_mainfx_model: dv ~ condition + (1 | subject) + (1 | target)
## Df AIC BIC logLik deviance Chisq Chi Df Pr(>Chisq)
## good_null_model 4 491 507 -241 483
## good_mainfx_model 5 487 507 -238 477 5.55 1 0.018 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
lme4
: stats.stackexchange.com/questions/118416/…