Справа з поодиноким вмістом у змішаних моделях


16

Скажімо, у нас є модель

mod <- Y ~ X*Condition + (X*Condition|subject)

# Y = logit variable  
# X = continuous variable  
# Condition = values A and B, dummy coded; the design is repeated 
#             so all participants go through both Conditions  
# subject = random effects for different subjects 

summary(model)
Random effects:
 Groups  Name             Variance Std.Dev. Corr             
 subject (Intercept)      0.85052  0.9222                    
         X                0.08427  0.2903   -1.00            
         ConditionB       0.54367  0.7373   -0.37  0.37      
         X:ConditionB     0.14812  0.3849    0.26 -0.26 -0.56
Number of obs: 39401, groups:  subject, 219

Fixed effects:
                 Estimate Std. Error z value Pr(>|z|)    
(Intercept)       2.49686    0.06909   36.14  < 2e-16 ***
X                -1.03854    0.03812  -27.24  < 2e-16 ***
ConditionB       -0.19707    0.06382   -3.09  0.00202 ** 
X:ConditionB      0.22809    0.05356    4.26 2.06e-05 ***

Тут ми спостерігаємо сингулярне прилягання, оскільки кореляція між перехопленням та x випадковими ефектами дорівнює -1. Тепер, згідно з цим корисним посиланням, одним із способів поводження з цією моделлю є видалення випадкових ефектів вищого порядку (наприклад, X: ConditionB) та перевірити, чи це має значення при тестуванні на особливість. Інший - використовувати байєсівський підхід, наприклад, blmeпакет, щоб уникнути сингулярності.

Що таке бажаний метод і чому?

Я запитую це, оскільки використання першого чи другого призводить до різних результатів - у першому випадку я видалю випадковий ефект X: ConditionB і не зможу оцінити кореляцію між випадковими ефектами X та X: ConditionB. З іншого боку, використання blmeдозволяє мені зберігати X: ConditionB і оцінювати задану кореляцію. Я не бачу жодної причини, чому я навіть повинен використовувати небайджеві оцінки та видаляти випадкові ефекти, коли виникають сингулярні пристосування, коли я можу оцінити все за допомогою байєсівського підходу.

Чи може хтось пояснити мені переваги та проблеми, використовуючи будь-який метод боротьби з сингулярними припадами?

Дякую.


Що ти турбуєшся про цей корр = -1? Це співвідношення між випадковими ефектами.
користувач158565

Отже, кожен суб'єкт дає вам два вимірювання Y, один під умовою A і один за умовою B? Якщо це правда, чи можете ви також сказати нам, чи змінюється значення безперервної змінної X для будь-якого даного об'єкта між умовами A і B?
Ізабелла Ґхемент

Чому ви ставите Condition у випадкові ефекти? Ви перевірили, чи потрібно?
Димитріс Різопулос

@ user158565 так, але це вказує на сингулярність ...
User33268

@IsabellaGhement Дійсно. Так, це так, x змінюється для будь-якої заданої теми між A і B. Крім того, є теоретичні підстави припускати, що регресія Y на X різна для кожного предмета
User33268

Відповіді:


21

Коли ви отримуєте єдину форму, це часто вказує на те, що модель є впорядкованою, тобто структура випадкових ефектів є надто складною, щоб підтримуватися даними, що, природно, призводить до поради щодо видалення найскладнішої частини випадкових ефектів будова (зазвичай випадкові схили). Перевага такого підходу полягає в тому, що він призводить до створення більш парсимоніальної моделі, яка не надто пристосована.

Однак, перш ніж робити що-небудь, чи є у вас вагомі причини для того, щоб хотіти X, Conditionа також їх взаємодія, в першу чергу, змінюватись залежно від теми? Чи дозволяє теорія того, як генеруються дані, це підказує?

Якщо ви хочете підходити до моделі з максимальною структурою випадкових ефектів і lme4отримуєте сингулярний примір, то встановлення цієї ж моделі в байєсівській рамці може цілком повідомити вас, чому lme4 виникли проблеми, оглянувши графіки слідів і наскільки добре оцінюються різні оцінки параметрів . Перевага при застосуванні байєсівського підходу полягає в тому, що тим самим ви можете розкрити проблему з оригінальною моделлю, тобто. причина, чому максимальна структура випадкових ефектів не підтримується даними) або вона може виявити, чому lme4вона не в змозі відповідати моделі. Я стикався з ситуаціями, коли байєсівська модель не збігається добре, якщо не використовуються інформативні пріори - які можуть бути, а можуть і не в порядку.

Словом, обидва підходи мають заслугу.

Однак я б завжди починав з місця, де початкова модель є парсимонізованою та проінформована експертними знаннями домену, щоб визначити найбільш відповідну структуру випадкових ефектів. Вказати групування змінних порівняно просто, але випадкові нахили зазвичай не потрібно включати. Включайте їх лише в тому випадку, якщо вони мають здоровий теоретичний сенс І вони підтримуються даними.

Редагувати: У коментарях зазначається, що існують обґрунтовані теоретичні причини, які відповідають максимальній структурі випадкових ефектів. Таким чином, відносно легкий спосіб продовжити з еквівалентної байєсівської моделі для заміни виклик glmerз stan_glmerз rstanarmпакету - він призначений для підключи і грай. У ньому є пріорі за замовчуванням, тому ви можете швидко встановити модель. У пакеті також є багато інструментів для оцінки конвергенції. Якщо ви виявите, що всі параметри мають збіжність до правдоподібних значень, то ви всі хороші. Однак може виникнути ряд питань - наприклад, дисперсія, яка оцінюється на рівні нуля або нижче, або оцінка, яка продовжує зменшуватися. На сайті mc-stan.org є багато інформації та форум користувачів.


1
Так, у мене є вагомі теоретичні підстави припускати, що регресія Y на X повинна різнитися в різних предметах по-різному для умов A і B. Регресія передбачає стиль обробки. Чи можете ви дати мені більше інформації про те, як інтерпретувати траєкторії як діагностичний інструмент причин сингулярності?
User33268

11

Це дуже цікава тема, з цікавими відповідями та коментарями! Оскільки цього ще не було зроблено, я хотів би зазначити, що у нас є дуже мало даних для кожної теми (наскільки я це розумію). Дійсно, кожен суб'єкт має лише два значення для кожної змінної відповіді Y, категоричну змінну Умова та безперервну змінну X. Зокрема, ми знаємо, що два значення Умови - A і B.

Якби ми використовували двоступеневе регресійне моделювання замість моделювання змішаних ефектів, ми навіть не могли б прилаштувати лінійну регресійну модель до даних конкретного предмета, як це проілюстровано в прикладі іграшки нижче для одного з предметів:

y <- c(4, 7)
condition <- c("A", "B")
condition <- factor(condition)
x <- c(0.2, 0.4)

m <- lm(y ~ condition*x)
summary(m)

Результатом цієї предметної моделі буде:

Call:
lm(formula = y ~ condition * x)

Residuals:
ALL 2 residuals are 0: no residual degrees of freedom!

Coefficients: (2 not defined because of singularities)
         Estimate Std. Error t value Pr(>|t|)
(Intercept)         4         NA      NA       NA
conditionB          3         NA      NA       NA
x                  NA         NA      NA       NA
conditionB:x       NA         NA      NA       NA

Residual standard error: NaN on 0 degrees of freedom
Multiple R-squared:      1,     Adjusted R-squared:    NaN 
F-statistic:   NaN on 1 and 0 DF,  p-value: NA

Зауважте, що модель придатних страждає від особливості, оскільки ми намагаємось оцінити 4 коефіцієнти регресії плюс стандартне відхилення помилки, використовуючи лише 2 спостереження.

Особливості зберігатимуться, навіть якщо ми спостерігали цю тему двічі - а не один раз - за кожної умови. Однак, якщо ми спостерігали предмет 3 рази за кожної умови, ми позбулися б особливості:

y <- c(4, 7, 3, 5, 1, 2)
condition <- c("A", "B", "A","B","A","B")
condition <- factor(condition)
x <- c(0.2, 0.4, 0.1, 0.3, 0.3, 0.5)

m2 <- lm(y ~ condition*x)
summary(m2)

Ось відповідний вихід R для цього другого прикладу, з якого зникли особливості:

>     summary(m2)

Call:
lm(formula = y ~ condition * x)

Residuals:
    1       2       3       4       5       6 
1.3333  2.3333 -0.6667 -1.1667 -0.6667 -1.1667 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)
(Intercept)     4.667      3.555   1.313    0.320
conditionB      6.000      7.601   0.789    0.513
x             -10.000     16.457  -0.608    0.605
conditionB:x   -5.000     23.274  -0.215    0.850

Residual standard error: 2.327 on 2 degrees of freedom
Multiple R-squared:  0.5357,    Adjusted R-squared:  -0.1607 
F-statistic: 0.7692 on 3 and 2 DF,  p-value: 0.6079

Звичайно, модель змішаних ефектів не підходить для споріднених, окремих лінійних регресійних моделей для кожного суб'єкта - вона підходить «спорідненим» моделям, перехоплення та / або нахили яких випадково відхиляються щодо типового перехоплення та / або нахилу, таким чином, що випадкові відхилення від типовий перехоплення та / або типовий нахил дотримуються нормального розподілу із середнім нулем та деяким невідомим стандартним відхиленням.

Незважаючи на це, моя інтуїція говорить про те, що модель змішаних ефектів бореться з невеликою кількістю спостережень - всього 2 - для кожного предмета. Чим більше модель завантажена випадковими нахилами, тим більше вона, ймовірно, бореться. Я підозрюю, що якби кожен суб'єкт вніс 6 спостережень замість 2 (тобто 3 за умовою), він би більше не намагався розмістити всі випадкові нахили.

Мені здається, що це міг бути (?) Випадок, коли сучасний дизайн дослідження не підтримує складних амбіцій моделювання - щоб підтримати ці амбіції, потрібно буде більше спостережень за кожної умови для кожного предмета (або принаймні для деяких із них предметів?). Це лише моя інтуїція, тому я сподіваюся, що інші можуть додати свою думку до моїх спостережень вище. Заздалегідь спасибі!


Я маю вас виправити - кожен учасник має 30 спостережень як для X, так і для Y, як в умовах А, так і В!
User33268

2
О, це не було зазначено у вашій початковій відповіді, тому мені було б неможливо здогадатися, скільки спостережень за темою та умовою ви насправді маєте. Тоді відбувається щось інше. Ви спробували стандартизувати змінну X? Це допомагає lme вписатися? Крім того, чи дивилися ви графіки Y проти X (або стандартизовані X) для умови = A проти стану = B окремо для кожного предмета? Це може дати вам додаткові підказки щодо того, що відбувається.
Ізабелла Гхемент

Я не стандартизував х, оскільки це дані про час реакції і це важливо для інтерпретації коефіцієнта регресії. Однак дані були централізованими. Я перегляну окремі сюжети і побачу ...
User33268

2
@ User33268 Я трохи запізнююсь на вечірку, але ви все ще можете інтерпретувати стандартизовані коефіцієнти, вам просто потрібно зберегти значення, які використовуються для масштабування, а потім повернути назад після запуску моделі.
Франс Роденбург
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.