В установці класичної багатоваріантної лінійної регресії у нас є модель:
Y=Xβ+ϵ
де являє собою незалежні змінні, являє собою декілька змінних відповідей, а - термін шуму Гайса. Шум має нульове значення і може бути співвіднесений між змінними відповіді. Максимальне ймовірне рішення для ваг рівносильне рішенню з найменшими квадратами (незалежно від кореляцій шуму) [1] [2]:XYϵ
β^=(XTX)−1XTY
Це рівнозначно незалежному вирішенню окремої проблеми регресії для кожної змінної відповіді. Це видно з того факту, що й стовпчик (містить ваги для ї вихідної змінної) можна отримати шляхом множення на th стовпця (містить значення ї змінної відповіді).iβ^i(XTX)−1XTiYi
Однак багатоваріантна лінійна регресія відрізняється від окремо вирішення окремих регресійних задач тим, що статистичні умови виведення враховують кореляції між численними змінними відповідей (наприклад, див. [2], [3], [4]). Наприклад, матриця коваріації шуму відображається в вибіркових розподілах, статистиці випробувань та оцінках інтервалів.
Ще одна відмінність виникає, якщо дозволити кожній змінній відповіді мати свій набір коваріатів:
Yi=Xiβi+ϵi
де являє собою ту змінну відповіді, а і являє собою відповідний набір коеваріатів і термін шуму. Як вище, умови шуму можуть бути співвіднесені між змінними відповіді. У цьому налаштуванні існують оцінки, які ефективніші за найменші квадрати, і їх не можна звести до вирішення окремих регресійних задач для кожної змінної відповіді. Наприклад, див. [1].YiiXiϵi
Список літератури
- Зеллнер (1962) . Ефективний метод оцінки, здавалося б, непов'язаних регресій та тестів на зміщення агрегації.
- Гельвіг (2017) . Багатовимірна лінійна регресія [Слайди]
- Фокс і Вайсберг (2011) . Багатовимірні лінійні моделі в Р. [Додаток до: Супровід R до прикладної регресії]
- Майтра (2013) . Багатовимірні лінійні регресійні моделі. [Слайди]