Питання датоване, але я думаю, що це дуже важливо. Найкраща відповідь, яку я можу отримати, - це книга Joop J Hox (2010) "Техніки та програми багаторівневого аналізу, друге видання".
pq
Звичайна однорівнева регресійна модель для одних і тих же даних оцінювала б лише перехоплення, одну дисперсію помилок та регресію нахилів p + q. Перевага моделі багаторівневої регресії очевидна, якщо врахувати, що дані згруповані в групи. Якщо у нас є 100 груп, для оцінки звичайної множинної регресійної моделі в кожній групі окремо потрібно оцінити 100 × (1 регресійний перехоплення + 1 залишкова дисперсія + схили регресії p) плюс можливі взаємодії зі змінними рівня рівня q. Багаторівнева регресія замінює оцінку 100 перехоплення шляхом оцінки середнього перехоплення плюс його залишкової дисперсії по групах, припускаючи нормальне розподіл цих залишків. Таким чином, багаторівневий регресійний аналіз замінює оцінку 100 окремих перехоплень шляхом оцінки двох параметрів (середня та дисперсія перехоплення) плюс припущення про нормальність. Таке ж спрощення використовується для регресійних схилів. Замість того, щоб оцінити 100 схилів для пояснювальної змінної статі учня, ми оцінюємо середній нахил разом з його різницею по групах і вважаємо, що розподіл схилів є нормальним. Тим не менш, навіть при невеликій кількості пояснювальних змінних, багаторівневий регресійний аналіз передбачає складну модель. Взагалі ми не хочемо оцінювати повну модель спочатку через те, що це, ймовірно, може ввести нас у обчислювальні проблеми, а також тому, що інтерпретувати таку складну модель дуже складно.
Це для опису. Тепер сторінки 29-30 відповідуть на ваше запитання точніше.
Прогнозовані перехоплення та нахили для 100 класів не є ідентичними значенням, які ми отримали, якби ми провели 100 окремих звичайних регресійних аналізів у кожному з 100 класів, використовуючи стандартні звичайні методи найменших квадратів (OLS). Якби ми порівнювали результати 100 окремих регресійних OLS-аналізів зі значеннями, отриманими в результаті багаторівневого регресійного аналізу, ми виявили б, що результати окремих аналізів є більш змінними. Це тому, що багаторівневі оцінки коефіцієнтів регресії 100 класів зважуються. Це так звані емпіричні байес (EB) або оцінки усадки: середньозважене значення конкретної оцінки OLS у кожному класі та загальний коефіцієнт регресії, оцінений для всіх подібних класів.
В результаті коефіцієнти регресії зменшуються назад до середнього коефіцієнта для всього набору даних. Маса усадки залежить від надійності розрахункового коефіцієнта. Коефіцієнти, які оцінюються з малою точністю, скорочуються більше, ніж дуже точно оцінені коефіцієнти. Точність оцінки залежить від двох факторів: розміру вибірки групи та відстані між груповою оцінкою та загальною оцінкою. Оцінки для малих груп менш надійні та зменшуються більше, ніж оцінки для великих груп. За інших рівних обставин, оцінки, які дуже далекі від загальної оцінки, вважаються менш надійними, і вони зменшуються більше, ніж оцінки, близькі до загального середнього показника. Використовуваний статистичний метод називається емпіричною оцінкою Байєса. Через цей ефект усадки, емпіричні оцінки Байєса упереджені. Однак вони, як правило, більш точні, властивість, яка часто є більш корисною, ніж неупереджена (див. Kendall, 1959).
Я сподіваюся, що це задовільно.