Я беру курс на регресійні моделі і однією з властивостей, передбачених для лінійної регресії, є те, що залишки завжди дорівнюють нулю, коли включається перехоплення.
Чи може хтось дати гарне пояснення, чому це так?
Я беру курс на регресійні моделі і однією з властивостей, передбачених для лінійної регресії, є те, що залишки завжди дорівнюють нулю, коли включається перехоплення.
Чи може хтось дати гарне пояснення, чому це так?
Відповіді:
Це випливає безпосередньо із звичайних рівнянь, тобто рівнянь, які розв'язує Оцінювач OLS,
Вектор всередині дужок - це, звичайно, залишковий вектор або проекція на ортогональне доповнення простору стовпців , якщо вам подобається лінійна алгебра. Тепер, включаючи вектор матриці , який, до речі, не повинен бути в першому стовпчику, як це робиться умовно, веде до X X
У задачі з двома змінними це ще простіше зрозуміти, оскільки мінімізація суми залишків у квадраті приводить нас до
коли ми беремо похідну щодо перехоплення. Тоді ми переходимо до отримання знайомого оцінювача
де ми знову бачимо, що побудова наших оцінок нав'язує цю умову.
У випадку, якщо ви шукаєте досить інтуїтивне пояснення.
У певному сенсі модель лінійної регресії - це не що інше, як хитре середнє. Щоб знайти середнє арифметичне над деякими значеннями , ми знайдемо значення, яке є мірою центральності в сенсі, що сума всіх відхилень (де кожне відхилення визначається як ) праворуч від середнього значення дорівнює сумі всіх відхилень зліва від цього середнього. Немає властивої причини, чому цей захід є хорошим, не кажучи вже про найкращий спосіб описати середнє значення вибірки, але це, звичайно, інтуїтивно зрозуміло та практично. Важливим моментом є те, що визначаючи середнє арифметичне таким чином, обов'язково випливає, що як тільки ми побудували середнє арифметичне, всі відхилення від цієї середньої величини повинні за визначенням дорівнювати нулю!
При лінійній регресії це не відрізняється. Ми підходите лінії таким чином, щоб сума всіх відмінностей між нашими підібраними значеннями (які знаходяться на лінії регресії) і фактичних значень, які вище лінії в точності дорівнює сумі всіх відмінностей між лінією регресії і все значення нижче рядок. Знову ж таки, немає властивої причини, чому це найкращий спосіб побудувати пристосування, але це прямо та інтуїтивно привабливо. Так само, як і середнє арифметичне: будуючи таким чином встановлені нами значення, обов'язково випливає, будуючи, що всі відхилення від цього рядка повинні дорівнювати нулю, інакше це просто не буде регресією OLS.
Коли перехоплення включено до декількох лінійних регресій,
У регресії найменших квадратів, сума квадратів помилок зведена до мінімуму.
Візьміть часткове похідна SSE щодо та встановлення її в нуль.
Просте виведення з використанням матричної алгебри:
можна записати як
Потім
де - ортогональна матриця. Оскільки симетричний, ми можемо переставити так, щоб
що дорівнює нулю, якщо та є ортогональними, то є випадок, якщо матриця регресорів містить перехоплення ( дійсно вектор ).