Чи не пов'язані оцінки коефіцієнтів регресії?


11

Розглянемо просту регресію (нормальність не передбачається):

Yi=a+bXi+ei,
де ei з середнім значенням 0 і стандартне відхилення σ. Оцінки найменших квадратнихa і b некорельований?

2
Як ти гадаєш? en.wikipedia.org/wiki/Ordinary_least_squares , розділ "Кінцеві властивості вибірки". На це запитання відповіли багато разів на цьому сайті.
mpiktas

Відповіді:


15

Це важливе врахування при розробці експериментів, де бажано не мати (або дуже мало) співвідношення серед оцінок a^ і b^. Така відсутність кореляції може бути досягнута, контролюючи значення значенняXi.


Проаналізувати наслідки дії Xi на оцінки, значення (1,Xi) (які є рядними векторами довжини 2) збираються вертикально в матрицю X, матриця дизайну, що має стільки рядків, скільки є даних і (очевидно) два стовпці. ВідповіднеYi збираються в один довгий (стовпчик) вектор y. У цих умовах написанняβ=(a,b) для зібраних коефіцієнтів модель є

E(Y)=Xβ

The Yi вважаються (як правило) незалежними випадковими змінними, відхилення яких є постійними σ2 для якогось невідомого σ>0. Залежні спостереженняy вважаються однією реалізацією векторної значення випадкової величини Y.

Рішення OLS є

β^=(XX)1Xy,

припускаючи, що ця матриця обернена. Таким чином, використовуючи основні властивості множення матриці та коваріації,

Cov(β^)=Cov((XX)1XY)=((XX)1Xσ2X(XX)1)=σ2(XX)1.

Матриця (XX)1 має всього два ряди та два стовпці, що відповідають параметрам моделі (a,b). Кореляціяa^ з b^ пропорційна недіагональним елементам (XX)1,які за правилом Крамера пропорційні крапковому добутку двох стовпцівX. Оскільки одна з колонок - це все1s, чий точковий добуток з іншим стовпцем (що складається з Xi) - їхня сума, ми знаходимо

a^ і b^ є неспорідненими, якщо і лише сума (або еквівалентно середня) значення Xi дорівнює нулю.

Ця умова ортогональності часто досягається за рахунок центруванняXi(віднімаючи їх середнє значення від кожного). Хоча це не змінить оцінений ухилb^, це змінює оцінене перехоплення a^. Чи важливо це чи ні, залежить від програми.


Цей аналіз застосовується до множинної регресії: проектна матриця матиме p+1 стовпців для p незалежні змінні (додатковий стовпчик складається з 1з) і β буде вектором довжини p+1, але в іншому випадку все проходить, як і раніше.

Умовно кажучи, два стовпчики Xназиваються ортогональними, коли їх точковий добуток дорівнює нулю. Коли один стовпчик зX (скажіть стовпчик i) є ортогональним для всіх інших стовпців, це легко продемонстрований алгебраїчний факт, що всі позадіагональні записи в рядку i і стовпчик i з (XX)1 дорівнюють нулю (тобто ij і ji компоненти для всіх jiдорівнюють нулю). Отже,

Дві оцінки множинних коефіцієнтів регресії β^i і β^j є некорельованими, коли будь-який (або обидва) відповідних стовпців проектної матриці є ортогональними для всіх інших стовпців.

Багато стандартних експериментальних конструкцій складаються з вибору значень незалежних змінних, щоб зробити стовпчики взаємно ортогональними. Це "відокремлює" отримані оцінки, гарантуючи - перш ніж будь-які дані будуть зібрані! - що оцінки не будуть відповідати. (Коли відповіді мають звичайні розподіли, це означає, що оцінки будуть незалежними, що значно спрощує їх тлумачення.)


У відповіді йдеться про "[...] позадіагональні елементи, які є лише крапковими добутками двох стовпців X." Це справедливо дляXX, не (XX)1проте?
Гейзенберг

@Heisenberg Це хороший момент. Мені це було незрозуміло. Немає двозначності у випадку двох стовпців, але мені потрібно подумати, як покращити презентацію для випадку більшої кількості стовпців.
whuber

@Heisenberg Я вдячний за ваше сприйнятливе спостереження: це дозволило мені виправити істотну помилку в обговоренні справи з множинною регресією.
whuber
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.