Нехай - кількість спостережень, а - кількість пояснювальних змінних.КNK
NX насправді є матрицеюТільки коли ми дивимось на одне спостереження, ми позначаємо кожне спостереження як - вектор рядків пояснювальних змінних одного конкретного скалярного спостереження, помножений на вектор стовпця . Крім того, - це векторний стовпець , Що містить усі спостереження .N×KxTiK×1βYN×1Yn
Тепер, два мірна гіперплоскость розтягнеться між вектором і один (!) Вектор - стовпець . Пам'ятайте , що є матриці, так що кожна пояснює змінна представлена рівно один вектор - стовпець матриці . Якщо у нас є тільки один пояснюючі змінні, що не перехоплювати і , всі крапки даних розташовані уздовж 2 - мірної площині , натягнутої на і .YXXN×KXYYX
Для множинної регресії скільки розмірів усього має гіперплан між та матрицею ? Відповідь: Оскільки у є вектори стовпців пояснювальних змінних у , ми повинні мати розмірну гіперплан .YXKXK+1
Зазвичай у матричній регресії регресія вимагає постійного перехоплення для об'єктивного аналізу коефіцієнта нахилу. Щоб пристосувати цей трюк, ми змушуємо один стовпчик матриці складатися лише з " s". У цьому випадку оцінювач стоїть окремо, помножений на константу для кожного спостереження замість випадкової пояснювальної змінної. Коефіцієнт представляє, таким чином, очікуване значення враховуючи, що утримується фіксованим зі значенням 1, а всі інші змінні - нулем. Тому розмірна гіперплан зменшується на один розмір до -вимірного підпростору, іX1β1β1Yx1iK+1Kβ1 відповідає "перехопленню" цієї -вимірної площини.K
У налаштуваннях матриці завжди бажано ознайомитися з простим випадком двох вимірів, щоб побачити, чи зможемо ми знайти інтуїцію для наших результатів. Тут найпростіший спосіб - думати просту регресію з двома пояснювальними змінними:
або альтернативно виражається в матричній алгебрі: де є матриці.
yi=β1x1i+β2x2i+ui
Y=Xβ+uXN×2
<Y,X> охоплює 3-мірну гіперплан.
Тепер, якщо ми змусимо всіх бути всіма , отримаємо:
- це звичайна наша проста регресія, яка може бути представлена у двовимірному графіку. Зауважимо, що тепер зводиться до двовимірної лінії - підмножини спочатку тривимірної гіперплани. Коефіцієнт відповідає перехопленню перерізу лінії при .x11
yi=β1i+β2x2i+ui
X, Y<Y,X>β1x2i=0
Далі може бути показано, що він також проходить через коли константа включена . Якщо ми залишимо постійну, гіпергресія регресії завжди проходить тривіально через - без сумніву. Це узагальнюється до декількох вимірів, як це буде видно пізніше при виведенні :
Оскільки має повний ранг на визначення, , і тому регресія проходить через початок, якщо ми не залишимо перехоплення.<0,β1><0,0>βX y - X β = 0
(X′X)β=X′y⟹(X′X)β−X′y=0⟹X′(y−Xβ)=0.
Xy−Xβ=0
( Редагувати: Я щойно зрозумів, що для вашого другого питання це якраз навпаки, ви написали регулювання включення або виключення константи. Однак, я вже розробив рішення, і я виправлений, якщо я помиляюся на цьому. )
Я знаю, що матричне зображення регресії на початку може бути досить заплутаним, але з часом воно значно спрощує при виведенні більш складної алгебри. Сподіваюсь, це трохи допомагає.