Яким чином можна отримати хорошу лінійну регресійну модель, коли немає суттєвої кореляції між результатами та прогнокторами?


17

Я тренував лінійну регресійну модель, використовуючи набір змінних / особливостей. І модель має хороші показники. Однак я зрозумів, що немає змінної, яка б добре співвідносилась із прогнозованою змінною. Як це можливо?


3
Це чудові відповіді, але в питанні бракує безлічі деталей, які відповіді прагнуть заповнити. Найбільше питання, на мій погляд, - що ви маєте на увазі під «хорошим співвідношенням».
ГВС

Відповіді:


35

Пара змінних може виявляти високу часткову кореляцію (кореляційний облік впливу інших змінних), але низьку - або навіть нульову - граничну кореляцію (попарна кореляція).

Що означає, що попарна кореляція між відповіддю, y та деяким предиктором, x може мати невелику цінність для ідентифікації відповідних змінних з (лінійним) "прогнозним" значенням серед колекції інших змінних.

Розглянемо наступні дані:

   y  x
1  6  6
2 12 12
3 18 18
4 24 24
5  1 42
6  7 48
7 13 54
8 19 60

Кореляція між y і x дорівнює . Якщо я намалюю лінію найменших квадратів, вона ідеально горизонтальна, і R 2 , природно, буде 0 .0R20

Але коли ви додаєте нову змінну g, яка вказує, з якої з двох груп з'явилися спостереження, x стає надзвичайно інформативним:

   y  x g
1  6  6 0
2 12 12 0
3 18 18 0
4 24 24 0
5  1 42 1
6  7 48 1
7 13 54 1
8 19 60 1

лінійної регресійної моделі з як х і г змінних в ньому буде 1.R2

Діаграма y у x, що показує відсутність парних лінійних зв’язків, але з кольором, що вказує на групу;  всередині кожної групи стосунки ідеальні

Можливо, що подібне відбувається з кожною з змінних в моделі - що всі мають невелику парну кореляцію з відповіддю, проте модель з усіма ними дуже добре прогнозує реакцію.

Додаткове читання:

https://en.wikipedia.org/wiki/Omitted-variable_bias

https://en.wikipedia.org/wiki/Simpson%27s_paradox


Чи може така поведінка трапитися у справжній лінійній моделі? Тут взаємозв’язок між кольором (g = 0/1) та відповіддю y здається нелінійним. Однак, що може статися, це те, що моделі без g може бути (довільно?) Нижче, ніж R 2 моделі з g . R2gR2g
Vimal

Боже, я мав би уважно подивитися на модель :) . Закресліть це питання! y=x41g
Vimal

Це справді була модель, за якою була створена відповідь; але ви можете відразу побачити, що це лінійно, просто уявивши підняття синіх точок на одну довільну одиницю (назустріч тобі від поверхні екрану, в напрямку нового напрямку осі "g") і побачивши, що площина пролягає через шість точок.
Glen_b -Встановити Моніку

1
При регресії змінні X обумовлені і часто можуть контролюватися, тому "незалежність" - це не те, що потрібно шукати. Поза замисленими експериментами, незалежних предикторів майже ніколи не зустрічають, і якщо ви створили експерименти, прогноктори не є випадковими змінними, тож "незалежність" (у статистичному сенсі) - це не те, що ви б дивилися - скоріше щось як взаємна ортогональність, імовірно. ...
ctd

1
ctd ... Якщо ви дійсно маєте на увазі (взаємну / p-змінну) статистичну незалежність усіх прогнокторів, тоді ви не отримаєте рівно нульові коефіцієнти на одновимірних регресіях таким чином, але вам також не потрібно повного поділу, як у наведеному вище прикладі .
Glen_b -Встановити Моніку

2

Я припускаю, що ви тренуєте модель множинної регресії, в якій у вас є кілька незалежних змінних , X 2 , ..., регресувала на Y. Проста відповідь тут є попарною кореляцією, подібно до запуску неперевіреної регресійної моделі. Таким чином, ви пропустили важливі змінні.X1X2

Більш конкретно, коли ви заявляєте, що "немає змінної з хорошою кореляцією з передбачуваною змінною", це здається, що ви перевіряєте попарну кореляцію між кожною незалежною змінною з залежною змінною, Y. Це можливо, коли приносить важливе значення , нова інформація та допомагає усунути непорозуміння між X 1 та Y. Хоча з цим плутаниною ми можемо не бачити лінійної парної кореляції між X 1 та Y. Ви також можете перевірити зв’язок між частковою кореляцією ρ x 1 , у | x 2 і множинна регресія y = β 1X2X1X1ρx1,y|x2 . Множинні регресії мають більш тісний зв’язок з частковою кореляцією, ніж попарна кореляція, ρ x 1 , y .y=β1X1+β2X2+ϵρx1,y


0

У векторних термінах, якщо у вас є набір векторів і інший вектор у , то , якщо у ортогонален (нульова кореляція) для кожного вектора в X , то вона також буде ортогональна будь-якої лінійної комбінації векторів з X . Однак, якщо вектори в X мають великі некорельовані компоненти, і невеликі корельовані компоненти, і некорельовані компоненти є лінійно залежними, то у може бути пов'язане з лінійною комбінацією X . Тобто, якщо X = x 1 , x 2 . . . і ми беремо о яXXXXXX=x1,x2...oipicicioi=0cixicioi=0cixiX1X2 ~ N(0,1) and E ~ N(0,100). Now we create new columns X1 and X2. For each row, we take a random sample from E, add that number to X1 to get X1, and subtract it from X2 to get X2. Since each row has the same sample of E being added and subtracted, the X1 and X2 columns will be perfect predictors of Y, even though each one has just a tiny correlation with Y individually.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.