Чому залишки в лінійній регресії завжди дорівнюють нулю, коли включається перехоплення?


14

Я беру курс на регресійні моделі і однією з властивостей, передбачених для лінійної регресії, є те, що залишки завжди дорівнюють нулю, коли включається перехоплення.

Чи може хтось дати гарне пояснення, чому це так?


3
Ви можете спочатку замислитися над тісно пов’язаним, але простішим питанням, чому в одновимірному вибірці залишки, які ви отримуєте, віднімаючи середнє значення вибірки, від кожного значення також дорівнюють 0. (Спробуйте дотримуватися алгебри через, якщо можете.)
Glen_b - Відновіть Моніку

3
Як тільки ви визнаєте, що "сума до нуля" означає "ортогональну одній із пояснювальних змінних", відповідь стає геометрично очевидною.
whuber

Відповіді:


18

Це випливає безпосередньо із звичайних рівнянь, тобто рівнянь, які розв'язує Оцінювач OLS,

X(yXb)e=0

Вектор всередині дужок - це, звичайно, залишковий вектор або проекція на ортогональне доповнення простору стовпців , якщо вам подобається лінійна алгебра. Тепер, включаючи вектор матриці , який, до речі, не повинен бути в першому стовпчику, як це робиться умовно, веде до X XyXX

1e=0i=1nei=0

У задачі з двома змінними це ще простіше зрозуміти, оскільки мінімізація суми залишків у квадраті приводить нас до

i=1n(yiabxi)=0

коли ми беремо похідну щодо перехоплення. Тоді ми переходимо до отримання знайомого оцінювача

a=y¯bx¯

де ми знову бачимо, що побудова наших оцінок нав'язує цю умову.


17

У випадку, якщо ви шукаєте досить інтуїтивне пояснення.

У певному сенсі модель лінійної регресії - це не що інше, як хитре середнє. Щоб знайти середнє арифметичне над деякими значеннями , ми знайдемо значення, яке є мірою центральності в сенсі, що сума всіх відхилень (де кожне відхилення визначається як ) праворуч від середнього значення дорівнює сумі всіх відхилень зліва від цього середнього. Немає властивої причини, чому цей захід є хорошим, не кажучи вже про найкращий спосіб описати середнє значення вибірки, але це, звичайно, інтуїтивно зрозуміло та практично. Важливим моментом є те, що визначаючи середнє арифметичне таким чином, обов'язково випливає, що як тільки ми побудували середнє арифметичне, всі відхилення від цієї середньої величини повинні за визначенням дорівнювати нулю!x¯x1,x2,,xnui=xix¯

При лінійній регресії це не відрізняється. Ми підходите лінії таким чином, щоб сума всіх відмінностей між нашими підібраними значеннями (які знаходяться на лінії регресії) і фактичних значень, які вище лінії в точності дорівнює сумі всіх відмінностей між лінією регресії і все значення нижче рядок. Знову ж таки, немає властивої причини, чому це найкращий спосіб побудувати пристосування, але це прямо та інтуїтивно привабливо. Так само, як і середнє арифметичне: будуючи таким чином встановлені нами значення, обов'язково випливає, будуючи, що всі відхилення від цього рядка повинні дорівнювати нулю, інакше це просто не буде регресією OLS.


2
+1 за пряму, просту та інтуїтивну відповідь!

Чудове пояснення, але я не впевнений: "Знову ж таки, немає властивої причини, чому це найкращий спосіб побудувати пристосування, але це прямо та інтуїтивно привабливо". є точним. Добре відома теорема Гаусса-Маркова про те, що ОЦП-ОЦІНЧИТИ БЛАГО: найкращі (мінімальна дисперсія) лінійних неупереджених оцінок (якщо припущення виконані). Часто наші інтуїтивні «почуття» щодо того, що є привабливим / розумним, також підкріплюються математично, як це відбувається у нас.
Мег

3

Коли перехоплення включено до декількох лінійних регресій, У регресії найменших квадратів, сума квадратів помилок зведена до мінімуму. Візьміть часткове похідна SSE щодо та встановлення її в нуль.

y^i=β0+β1xi,1+β2xi,2++βpxi,p
SSE=i=1n(ei)2=i=1n(yiyi^)2=i=1n(yiβ0β1xi,1β2xi,2βpxi,p)2
β0
SSEβ0=i=1n2(yiβ0β1xi,1β2xi,2βpxi,p)1(1)=2i=1nei=0
Отже, залишки завжди дорівнюють нулю, коли перехоплення включається в лінійну регресію.


1

Ключове зауваження полягає в тому, що оскільки модель має перехоплення, , який є першим стовпцем матриці , може бути записаний як де вектор стовпців з усіма нулями, але перший компонент. Також зауважте, що в матричних позначеннях сума залишків становить лише .1X

1=Xe,
e1T(yy^)

Тому

1T(yy^)=1T(IH)y=eTXT(IX(XTX)1XT)y=eT(XTXTX(XTX)1XT)y=eT(XTXT)y=0.


0

Просте виведення з використанням матричної алгебри:

e можна записати як1Te

Потім

1Te=1T(Mxy) де - ортогональна матриця. Оскільки симетричний, ми можемо переставити так, щоб MxMx(Mx1)Ty

що дорівнює нулю, якщо та є ортогональними, то є випадок, якщо матриця регресорів містить перехоплення ( дійсно вектор ).Mx1x1


Я не думаю, що це правильно.
Майкл Р. Черник

Якщо ви поясните, чому тоді я буду радий дізнатися щось
Міно

0
  1. ei=yi[1,X][a,b]=yiXba=via
  2. ddaei2ei1=via=0 такa^=1nvi
  3. ei=ivia=ivinnivi=0

..

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.