Багатоваріантна лінійна регресія проти декількох одновимірних регресійних моделей


11

У налаштуваннях універсальної регресії ми намагаємося моделювати

y=Xβ+noise

де вектор спостережень і матриця проектування з провісниками. Рішення - .yRnnXRn×mmβ0=(XTX)1Xy

У налаштуваннях багатоваріантної регресії ми намагаємося моделювати

Y=Xβ+noise

де - матриця з спостережень та різних прихованих змінних. Рішення - .yRn×pnpβ0=(XTX)1XY

Моє запитання полягає в тому, чим це відрізняється від виконання різних одновимірних лінійних регресій? Я читав тут, що в останньому випадку ми беремо до уваги співвідношення залежних змінних, але я не бачу цього з математики.p


1
Дивіться теорему Фріша-Во-Ловелла.
rsm

1
@amorfati: Тож якщо я правильно розумію, вони однакові. Чому люди ставляться до них по-різному?
Рой

Відповіді:


6

В установці класичної багатоваріантної лінійної регресії у нас є модель:

Y=Xβ+ϵ

де являє собою незалежні змінні, являє собою декілька змінних відповідей, а - термін шуму Гайса. Шум має нульове значення і може бути співвіднесений між змінними відповіді. Максимальне ймовірне рішення для ваг рівносильне рішенню з найменшими квадратами (незалежно від кореляцій шуму) [1] [2]:XYϵ

β^=(XTX)1XTY

Це рівнозначно незалежному вирішенню окремої проблеми регресії для кожної змінної відповіді. Це видно з того факту, що й стовпчик (містить ваги для ї вихідної змінної) можна отримати шляхом множення на th стовпця (містить значення ї змінної відповіді).iβ^i(XTX)1XTiYi

Однак багатоваріантна лінійна регресія відрізняється від окремо вирішення окремих регресійних задач тим, що статистичні умови виведення враховують кореляції між численними змінними відповідей (наприклад, див. [2], [3], [4]). Наприклад, матриця коваріації шуму відображається в вибіркових розподілах, статистиці випробувань та оцінках інтервалів.

Ще одна відмінність виникає, якщо дозволити кожній змінній відповіді мати свій набір коваріатів:

Yi=Xiβi+ϵi

де являє собою ту змінну відповіді, а і являє собою відповідний набір коеваріатів і термін шуму. Як вище, умови шуму можуть бути співвіднесені між змінними відповіді. У цьому налаштуванні існують оцінки, які ефективніші за найменші квадрати, і їх не можна звести до вирішення окремих регресійних задач для кожної змінної відповіді. Наприклад, див. [1].YiiXiϵi

Список літератури

  1. Зеллнер (1962) . Ефективний метод оцінки, здавалося б, непов'язаних регресій та тестів на зміщення агрегації.
  2. Гельвіг (2017) . Багатовимірна лінійна регресія [Слайди]
  3. Фокс і Вайсберг (2011) . Багатовимірні лінійні моделі в Р. [Додаток до: Супровід R до прикладної регресії]
  4. Майтра (2013) . Багатовимірні лінійні регресійні моделі. [Слайди]

1
Дякую, зараз зрозуміліше. Чи є у вас посилання на цю рецептуру? Я стикався лише з найменшою квадратною формою. Крім того, чи знаєте ви пакет Python, який реалізує це?
Рой

1
По-друге, довідковий запит. Чи вважає це співвідношення просто коваріацією результатів, чи вчиться якесь, якщо умовна коваріація?
generic_user

Я не на 100% впевнений, що @ user20160 посилався на це, але думаю, що вони мали на увазі оцінку рівнянь / узагальнених оціночних рівнянь. EE / GEE несумісні, коли структура коваріації не визначена, і ви також можете встановити очікувану структуру коваріації. Однак ці моделі ітераційно оцінюються на відміну від OLS із закритою формою. Ви повинні мати можливість оцінити GEE / EE в Python, але я не знаю пакетів.
iacobus

1
@Roy Я переписав відповідь і додав посилання. Моя первісна публікація передбачала випадок, який зараз є останнім пунктом доопрацьованої посади. Спробую додати більш детальну інформацію пізніше.
користувач20160
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.