Відносини між ε^ і ε є:
ε^= ( Я- Н) ε
де Н, капелюшна матриця, є Х(ХТХ)- 1ХТ.
Що означає це сказати ε^i є лінійною комбінацією всіх помилок, але зазвичай більша частина ваги припадає на i-та.
Ось приклад, використовуючи cars
набір даних у Р. Розгляньте крапку, позначену фіолетовим кольором:
Назвемо це пунктом i. Залишковий,ε^i≈ 0,98εi+∑j ≠ iшjεj, де шj для інших помилок знаходиться в області -0,02:
Ми можемо переписати це як:
ε^i≈ 0,98εi+ηi
або загалом
ε^i= ( 1 -годя i)εi+ηi
де годя i є i-й діагональний елемент Н. Аналогічношjвище є годi j.
Якщо помилки - iid N( 0 ,σ2) то в цьому прикладі зважена сума цих інших помилок матиме стандартне відхилення, що відповідає приблизно 1/7-му ефекту помилки iго спостереження за його залишковим.
Що означає, що в регресіях, що ведуть себе добре, залишки можуть здебільшого трактуватись як помірно галасливі оцінки непомітних термінів помилки. Як ми вважаємо точки далі від центру, все працює дещо менш приємно (залишок стає менш зваженим на помилку, а ваги на інші помилки стають менш рівними).
З багатьма параметрами або з Хне так добре розподілені, залишки можуть бути набагато менше, як помилки. Ви можете спробувати кілька прикладів.