Я намагаюся використати lme4::glmer()
для встановлення біноміальної узагальненої змішаної моделі (GLMM) із залежною змінною, яка є не бінарною, а суцільною змінною між нулем та одиницею. Можна вважати цю змінну як ймовірність; насправді це ймовірність того, як повідомили людських суб'єктів (в експерименті , який я допомогти аналізує). Тобто це не "дискретна" частка, а суцільна змінна.
Мій glmer()
дзвінок працює не так, як очікувалося (див. Нижче). Чому? Що я можу зробити?
Пізніше редагуйте: моя відповідь нижче є більш загальною, ніж оригінальна версія цього питання, тому я змінив питання на більш загальне.
Детальніше
Мабуть, можна використовувати логістичну регресію не тільки для бінарних DV, але і для безперервного DV між нулем і одиницею. Дійсно, коли я бігаю
glm(reportedProbability ~ a + b + c, myData, family="binomial")
Я отримую попереджувальне повідомлення
Warning message:
In eval(expr, envir, enclos) : non-integer #successes in a binomial glm!
але дуже розумна відповідність (всі чинники категоричні, тому я можу легко перевірити, чи є передбачення моделі близькими до суб'єктів-засобів, і вони є).
Однак те, що я насправді хочу використовувати, - це
glmer(reportedProbability ~ a + b + c + (1 | subject), myData, family="binomial")
Це дає мені однакове попередження, повертає модель, але ця модель явно дуже сильна; оцінки фіксованих ефектів дуже далекі від оцінок glm()
та від суб'єктних засобів. (І мені потрібно включити glmerControl(optimizer="bobyqa")
в glmer
дзвінок, інакше він зовсім не збігається.)
glmmadmb(reportedProbability ~ a + b + c + (1 | subject), myData, family="beta")
, я отримую правильний інтервал правильності та розумні довіри, але попередження про збій не вдалося : - / намагаюся зрозуміти, як збільшити кількість ітерацій. Бета-версія може працювати для мене, оскільки у мене немає DV = 0 або DV = 1 випадків.
+ (1 | rowid)
до свого дзвінка glmer, і це дає стабільні оцінки та стабільні інтервали довіри, незалежно від мого вибору ваги (я пробував 100 та 500). Я також спробував запустити lmer на logit (поінформував про Probabability), і я отримав майже те саме. Тож обидва рішення, здається, працюють добре! Beta MM з glmmadmb дає також дуже близькі результати, але з певних причин не вдається повністю конвергуватися і потрібно вічно працювати. Поміркуйте над публікацією відповіді з переліком цих варіантів та трохи поясніть відмінності та плюси / мінуси! (Інтервали довіри, про які я згадую, - це всі Вальди.)