Моя початкова думка полягала в тому, що для звичайної лінійної регресії ми просто підключаємо до своєї оцінки залишкової дисперсії , ніби це правда.σ2
Однак погляньте на узагальнені лінійні та змішані моделі McCulloch та Searle (2001), 1-е видання , Розділ 6.4b, "Дисперсія вибірки". Вони вказують, що ви не можете просто підключити оцінки компонентів дисперсії :
Замість того, щоб мати справу з дисперсією (матрицею) вектора ми розглянемо простіший випадок скалярного для оцінюваного (тобто для деякого ). л ' β л ' β л ' = т ' х т 'Хβ^л'β^л'βл'= t'Хт'
Для відомого ми маємо з (6.21), що . Заміною цього, коли невідомо, є використання , що є оцінкою . Але це не оцінка . Останнє вимагає врахування змінності , а також у . Щоб розібратися з цим, Какар та Харвілл (1984, стор. 854) зауважують, що (у нашому позначенні)вар ( л ' β 0 ) = л ' ( Х ' V - 1 X ) - л V л ' ( Х ' V - 1 X ) - л вар ( л ' β 0 ) = змінна у ] вар ( л ' β ) = вар [ л ' ( ХVвар( л'β0) = l'(X'V- 1 X)-лVл'( X'V^- 1Х)-лвар ( л'β0) = вар [ л'( X'V- 1Х)-Х'V- 1у]В у л ' β - л ' β л ' β - л ' β 0 l ′ β 0 - l ′ β varвар ( л'β^) = вар [ л'( X'V^- 1Х)-Х'V^- 1у]V^ул'β^- л'βможе бути виражена сумою двох незалежних частин, і . Це призводить до вираження сумою двох дисперсій, які ми записуємо якл'β^- л'β0л'β0- л'βвар ( л'β^)
вар ( л'β^) = . . . ≈ л'( X'V- 1Х) l + l'Тл
Вони йдуть , щоб пояснити . Т
Отже, це відповідає на першу частину вашого запитання і вказує на те, що ваша інтуїція була правильною (а моя помилялася).