Я розумію, що ми використовуємо моделі випадкових ефектів (або змішаних ефектів), коли вважаємо, що деякі параметри моделей випадково змінюються в залежності від коефіцієнта групування. У мене є бажання підходити до моделі, де відповідь було нормалізовано та зосереджено (не ідеально, але досить близько) через групуючий фактор, але незалежна змінна x
жодним чином не коригувалася. Це призвело мене до наступного тесту (з використанням сфабрикованих даних), щоб переконатися, що я знайшов би ефект, який шукав, якби він дійсно був. Я застосував одну модель змішаних ефектів із випадковим перехопленням (у різних групах, визначених f
) та другу модель з фіксованим ефектом із фактором f як передбачуваним ефектом. Я використовував пакет R lmer
для моделі змішаного ефекту та базової функціїlm()
для моделі з фіксованим ефектом Далі - дані та результати.
Зауважте, що y
незалежно від групи коливається в межах 0. І це x
змінюється в залежності від y
групи, але в різних групах значно більшеy
> data
y x f
1 -0.5 2 1
2 0.0 3 1
3 0.5 4 1
4 -0.6 -4 2
5 0.0 -3 2
6 0.6 -2 2
7 -0.2 13 3
8 0.1 14 3
9 0.4 15 3
10 -0.5 -15 4
11 -0.1 -14 4
12 0.4 -13 4
Якщо ви зацікавлені в роботі з даними, ось такий dput()
результат:
data<-structure(list(y = c(-0.5, 0, 0.5, -0.6, 0, 0.6, -0.2, 0.1, 0.4,
-0.5, -0.1, 0.4), x = c(2, 3, 4, -4, -3, -2, 13, 14, 15, -15,
-14, -13), f = structure(c(1L, 1L, 1L, 2L, 2L, 2L, 3L, 3L, 3L,
4L, 4L, 4L), .Label = c("1", "2", "3", "4"), class = "factor")),
.Names = c("y","x","f"), row.names = c(NA, -12L), class = "data.frame")
Встановлення моделі змішаних ефектів:
> summary(lmer(y~ x + (1|f),data=data))
Linear mixed model fit by REML
Formula: y ~ x + (1 | f)
Data: data
AIC BIC logLik deviance REMLdev
28.59 30.53 -10.3 11 20.59
Random effects:
Groups Name Variance Std.Dev.
f (Intercept) 0.00000 0.00000
Residual 0.17567 0.41913
Number of obs: 12, groups: f, 4
Fixed effects:
Estimate Std. Error t value
(Intercept) 0.008333 0.120992 0.069
x 0.008643 0.011912 0.726
Correlation of Fixed Effects:
(Intr)
x 0.000
Зауважу, що компонент дисперсійної дисперсії оцінюється як 0, і що важливо, для мене, x
не є істотним провісником y
.
Далі я підходимо до моделі фіксованого ефекту f
в якості предиктора замість фактору групування для випадкового перехоплення:
> summary(lm(y~ x + f,data=data))
Call:
lm(formula = y ~ x + f, data = data)
Residuals:
Min 1Q Median 3Q Max
-0.16250 -0.03438 0.00000 0.03125 0.16250
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.38750 0.14099 -9.841 2.38e-05 ***
x 0.46250 0.04128 11.205 1.01e-05 ***
f2 2.77500 0.26538 10.457 1.59e-05 ***
f3 -4.98750 0.46396 -10.750 1.33e-05 ***
f4 7.79583 0.70817 11.008 1.13e-05 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 0.1168 on 7 degrees of freedom
Multiple R-squared: 0.9484, Adjusted R-squared: 0.9189
F-statistic: 32.16 on 4 and 7 DF, p-value: 0.0001348
Тепер я зауважую, що, як очікувалося, x
є вагомим провісником y
.
Що я шукаю - це інтуїція щодо цієї різниці. Яким чином моє мислення тут неправильне? Чому я помилково очікую знайти значущий параметр для x
обох цих моделей, але лише насправді бачу його у моделі з фіксованим ефектом?
x
змінна не є істотною. Я підозрюю, що це той самий результат (коефіцієнти і SE), який ви мали б працюватиlm(y~x,data=data)
. Немає більше часу для діагностики, але хотіла це зазначити.