Багаторівнева модель проти окремих моделей для кожного рівня


10

Які переваги та недоліки роботи окремих моделей проти багаторівневого моделювання?

Більш конкретно, припустимо, у дослідженні обстежували пацієнтів, які вкладаються у практику лікарів, що вкладаються у країни. Які переваги / недоліки використання окремих моделей для кожної країни порівняно з трирівневою вкладеною моделлю?


2
Технічно вам потрібно зовсім небагато одиниць 3 рівня, якщо ви збираєтеся отримувати неупереджені оцінки параметрів у трирівневій моделі (взагалі кажучи, розмір вибірки в будь-якій багаторівневій моделі особливо важливий на найвищому рівні), тому, якщо у вас немає велика випадкова вибірка країн (можливо, 50+), ви, мабуть, повинні розглянути можливість використання окремих дворівневих моделей, або якщо у вас мало країн, ви можете розглянути трактування країни як категоричного провісника рівня 2 у дворівневій моделі
Патрік Coulombe

Привіт @gung Я не був, я зараз їх перегляну.
Пітер Флом

Відповіді:


6

Питання датоване, але я думаю, що це дуже важливо. Найкраща відповідь, яку я можу отримати, - це книга Joop J Hox (2010) "Техніки та програми багаторівневого аналізу, друге видання".

pq

Звичайна однорівнева регресійна модель для одних і тих же даних оцінювала б лише перехоплення, одну дисперсію помилок та регресію нахилів p + q. Перевага моделі багаторівневої регресії очевидна, якщо врахувати, що дані згруповані в групи. Якщо у нас є 100 груп, для оцінки звичайної множинної регресійної моделі в кожній групі окремо потрібно оцінити 100 × (1 регресійний перехоплення + 1 залишкова дисперсія + схили регресії p) плюс можливі взаємодії зі змінними рівня рівня q. Багаторівнева регресія замінює оцінку 100 перехоплення шляхом оцінки середнього перехоплення плюс його залишкової дисперсії по групах, припускаючи нормальне розподіл цих залишків. Таким чином, багаторівневий регресійний аналіз замінює оцінку 100 окремих перехоплень шляхом оцінки двох параметрів (середня та дисперсія перехоплення) плюс припущення про нормальність. Таке ж спрощення використовується для регресійних схилів. Замість того, щоб оцінити 100 схилів для пояснювальної змінної статі учня, ми оцінюємо середній нахил разом з його різницею по групах і вважаємо, що розподіл схилів є нормальним. Тим не менш, навіть при невеликій кількості пояснювальних змінних, багаторівневий регресійний аналіз передбачає складну модель. Взагалі ми не хочемо оцінювати повну модель спочатку через те, що це, ймовірно, може ввести нас у обчислювальні проблеми, а також тому, що інтерпретувати таку складну модель дуже складно.

Це для опису. Тепер сторінки 29-30 відповідуть на ваше запитання точніше.

Прогнозовані перехоплення та нахили для 100 класів не є ідентичними значенням, які ми отримали, якби ми провели 100 окремих звичайних регресійних аналізів у кожному з 100 класів, використовуючи стандартні звичайні методи найменших квадратів (OLS). Якби ми порівнювали результати 100 окремих регресійних OLS-аналізів зі значеннями, отриманими в результаті багаторівневого регресійного аналізу, ми виявили б, що результати окремих аналізів є більш змінними. Це тому, що багаторівневі оцінки коефіцієнтів регресії 100 класів зважуються. Це так звані емпіричні байес (EB) або оцінки усадки: середньозважене значення конкретної оцінки OLS у кожному класі та загальний коефіцієнт регресії, оцінений для всіх подібних класів.

В результаті коефіцієнти регресії зменшуються назад до середнього коефіцієнта для всього набору даних. Маса усадки залежить від надійності розрахункового коефіцієнта. Коефіцієнти, які оцінюються з малою точністю, скорочуються більше, ніж дуже точно оцінені коефіцієнти. Точність оцінки залежить від двох факторів: розміру вибірки групи та відстані між груповою оцінкою та загальною оцінкою. Оцінки для малих груп менш надійні та зменшуються більше, ніж оцінки для великих груп. За інших рівних обставин, оцінки, які дуже далекі від загальної оцінки, вважаються менш надійними, і вони зменшуються більше, ніж оцінки, близькі до загального середнього показника. Використовуваний статистичний метод називається емпіричною оцінкою Байєса. Через цей ефект усадки, емпіричні оцінки Байєса упереджені. Однак вони, як правило, більш точні, властивість, яка часто є більш корисною, ніж неупереджена (див. Kendall, 1959).

Я сподіваюся, що це задовільно.


2

Визначення випадкового ефекту передбачає припущення, що засоби цих рівнів є вибірками з нормального розподілу. Краще вказати їх як фіксовані ефекти, фіктивні змінні AKA, якщо це припущення не відповідає вашим даним. Таким чином ви керуєте груповою неоднорідністю в середньому (на цьому рівні), але ви НЕ допускаєте гетерогенності у відповідях на ваші змінні нижчого рівня.

Якщо ви очікуєте неоднорідності у відповідь на ваші пояснювальні змінні нижчого рівня, окремі моделі мають сенс, якщо ви не хочете запустити якусь модель випадкових коефіцієнтів (що знову ж таки передбачає припущення, що коефіцієнти зазвичай розподіляються).

(Я вважаю, що існують методи ненормальних випадкових ефектів, але нічого такого широко використовуваного чи доступного, як lme)


1

Перевага: Можливість явного тестування на відмінності параметрів за кластером (тобто відмінності у значущості не означають значних відмінностей).


2
Ця відповідь занадто коротка. Більше коментаря, ніж відповіді.
Ерік Петерсон
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.