Я аналізую деякі поведінкові дані, використовуючи, lme4
в R
основному дотримуючись чудових навчальних посібників Bodo Winter , але я не розумію, чи правильно обробляю взаємодію. Гірше, що ніхто більше не бере участь у цьому дослідженні, не використовує змішаних моделей, тому я трохи похитнувся, коли потрібно переконатися, що все правильно.
Замість того, щоб просто опублікувати крик про допомогу, я подумав, що я повинен докласти максимум зусиль для тлумачення проблеми, а потім прошу ваших колективних виправлень. Декілька інших боків:
- Під час написання я знайшов це запитання , показавши, що
nlme
більш безпосередньо дають значення p для термінів взаємодії, але я думаю, що це все-таки справедливо запитувати стосовноlme4
. Livius'
відповідь на це запитання надала посилання на багато додаткових читань, які я намагаюся пройти в найближчі кілька днів, тому я прокоментую будь-який прогрес, який принесе.
У своїх даних я маю залежну змінну dv
, condition
маніпуляцію (0 = контроль, 1 = експериментальний стан, який повинен призвести до вищого dv
), а також необхідну умову, позначена appropriate
: випробування, закодовані 1
для цього, повинні показувати ефект, але випробування кодуються 0
можуть ні, тому що важливий фактор відсутній.
Я також включив два випадкових перехоплення для subject
, і для target
, що відображають співвідносні dv
значення в межах кожного предмета та в межах кожної з 14 вирішених задач (кожен учасник вирішив як контрольну, так і експериментальну версію кожної проблеми).
library(lme4)
data = read.csv("data.csv")
null_model = lmer(dv ~ (1 | subject) + (1 | target), data = data)
mainfx_model = lmer(dv ~ condition + appropriate + (1 | subject) + (1 | target),
data = data)
interaction_model = lmer(dv ~ condition + appropriate + condition*appropriate +
(1 | subject) + (1 | target), data = data)
summary(interaction_model)
Вихід:
## Linear mixed model fit by REML ['lmerMod']
## ...excluded for brevity....
## Random effects:
## Groups Name Variance Std.Dev.
## subject (Intercept) 0.006594 0.0812
## target (Intercept) 0.000557 0.0236
## Residual 0.210172 0.4584
## Number of obs: 690, groups: subject, 38; target, 14
##
## Fixed effects:
## Estimate Std. Error t value
## (Intercept) 0.2518 0.0501 5.03
## conditioncontrol 0.0579 0.0588 0.98
## appropriate -0.0358 0.0595 -0.60
## conditioncontrol:appropriate -0.1553 0.0740 -2.10
##
## Correlation of Fixed Effects:
## ...excluded for brevity.
Потім ANOVA виявляється interaction_model
значно кращим, ніж mainfx_model
з цього, я роблю висновок, що існує значна взаємодія (p = .035).
anova(mainfx_model, interaction_model)
Вихід:
## ...excluded for brevity....
## Df AIC BIC logLik deviance Chisq Chi Df Pr(>Chisq)
## mainfx_model 6 913 940 -450 901
## interaction_model 7 910 942 -448 896 4.44 1 0.035 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Звідти я виділяю підмножину даних, щодо яких appropriate
виконується вимога (тобто appropriate = 1
), і для неї підходить нульова модель, і модель, що включає condition
в якості ефекту, знову порівняння двох моделей, використовуючи ANOVA, і ось, виявіть, що condition
є вагомим провісником.
good_data = data[data$appropriate == 1, ]
good_null_model = lmer(dv ~ (1 | subject) + (1 | target), data = good_data)
good_mainfx_model = lmer(dv ~ condition + (1 | subject) + (1 | target), data = good_data)
anova(good_null_model, good_mainfx_model)
Вихід:
## Data: good_data
## models:
## good_null_model: dv ~ (1 | subject) + (1 | target)
## good_mainfx_model: dv ~ condition + (1 | subject) + (1 | target)
## Df AIC BIC logLik deviance Chisq Chi Df Pr(>Chisq)
## good_null_model 4 491 507 -241 483
## good_mainfx_model 5 487 507 -238 477 5.55 1 0.018 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
lme4
: stats.stackexchange.com/questions/118416/…