Можна стандартизувати


9

Я намагаюся інтерпретувати результати статті, де вони застосували багаторазову регресію для прогнозування різних результатів. Однакβ's (стандартизовані коефіцієнти B, визначені як βx1=Bx1SDx1SDy де y є залежною змінною і x1 є прогнозом) повідомляється, схоже, не відповідає повідомленому R2:

введіть тут опис зображення

Попри β з -0,83, -0,29, -0,16, -0,43, 0,25 та -0,29, повідомляється R2 становить лише 0,20.

Також три предиктори: вага, ІМТ та жировий% є мультиколінеарними, співвідносячись приблизно r = 0,8-0,9 один з одним у статі.

Є R2 значення, правдоподібне при цьому β або немає прямого зв'язку між βі R2?

Крім того, можуть виникнути проблеми з мультиколінеарними предикторами β четвертого предиктора (VO2max), який корелює навколо r = 0,4 з вищезгаданими трьома змінними?


Що βу цьому контексті? Бета-коефіцієнт (стандартизована регресія)? Або щось інше? Якщо так, то ви насправді нічого не можете сказати, все, що ви отримаєте, - це тлумачення з точки зору стандартних відхилень. Те, що коефіцієнт передбачає великі ефекти, не означає високого рівняR2значення
Repmat

1
ß означає стандартизовані b коефіцієнти. Для випадку 1 предиктора ß дорівнює r грузової площини, що безпосередньо стосується R-квадрата, однак у цьому багатовимірному випадку чому б високі ß не означають високий R-квадрат?
Sakari Jukarainen

2
Ні, в одному випадку регресора β не дорівнює співвідношенню Пірсона: β=Cov(y,x)Var(x)Cov(y,x)Var(y)×Var(x)=ρ(y,x). Відносини міжβс і R2не так просто.
Річард Харді

5
@ RichardHardy Я підозрюю, що плутанина в тому, що визначив Сакарі βбути стандартизованим коефіцієнтом регресії. У двовимірній лінійній регресії коефіцієнт регресії (b у позначенні Сакарі) є rxysysx, де r є співвідношення і sстандартне відхилення. Для стандартизації коефіцієнта регресії коефіцієнт ділимо на стандартне відхиленняy і помножити на стандартне відхилення x, тому залишається лише кореляція. Тож Сакарі має рацію.
Maarten Buis

Я все ще не бачу, чому ви вважаєте це неправильним? Якщо у статті є деяка підсумкова статистика, ви можете просто перевірити, чи підсумовуються цифри. Ви навіть надали формулу для цього. Ви не можете зробити висновок, що просто через те, що ефекти великі в обох термінах, що моделі добре справляються з поясненням дисперсії у.
Репмат

Відповіді:


17

Геометрична інтерпретація звичайної регресії найменших квадратів дає необхідне уявлення.

Більшість того, що нам потрібно знати, можна побачити у випадку двох регресорів x1 і x2 з відповіддю y. У стандартизованих коефіцієнтах, або «бета," виникають тоді , коли всі три вектора стандартизовані до загальної довжини (який можна взяти рівну одиницю). Таким чином,x1 і x2 - одиничні вектори в площині E2- вони розташовані на одиничному колі - і y є одиничним вектором у тривимірному евклідовому просторі E3що містить цю площину. Встановлене значенняy^ - ортогональна (перпендикулярна) проекція y на E2. Тому щоR2 просто - довжина квадрата y^, нам навіть не потрібно візуалізувати всі три виміри: всю необхідну нам інформацію можна намалювати в цій площині.

Ортогональні регресори

Найприємніша ситуація, коли регресори ортогональні, як на першій фігурі.

Малюнок 1, що показує регресори та $ \ hat y $ як вектори площини.

На цій та решті рисунків я послідовно малюю одиничний диск білим кольором, а регресори - чорними стрілками. x1завжди буде вказувати прямо вправо. Товсті червоні стрілки зображують компонентиy^ в x1 і x2 вказівки: тобто β1x1 і β2x2. Довжинаy^ це радіус сірого кола, на якому він лежить, - але пам’ятайте про це R2- площа такої довжини.

Теорема Піфагора стверджує ,

R2=|y^|2=|β1x1|2+|β2x2|2=β12(1)+β22(1)=β12+β22.

Оскільки теорема Піфагора дотримується будь-якої кількості вимірів, це міркування узагальнює будь-яку кількість регресорів, даючи наш перший результат:

Коли регресори ортогональні, R2 дорівнює сумі квадратів бет.

Безпосереднім наслідком є ​​те, що коли існує лише один регресор - одноманітна регресія--R2 - площа стандартизованого схилу.

Співвіднесені

Негативно співвідносні регресори зустрічаються під кутом, більшим за прямий кут.

Фіг.2, що показує негативно корельовані регресори

На цьому зображенні візуально видно, що сума квадратів бет суворо більша за R2. Це можна довести алгебраїчно, використовуючи Закон косинусів або працюючи з матричним рішенням Нормальних рівнянь.

Зробивши два регресори майже паралельними, ми можемо позиціонувати y^ біля походження (для ан R2 біля 0), хоча він продовжує мати великі компоненти в x1 і x2напрямок. Таким чином, не існує обмеження, наскільки малоR2 може бути.

Малюнок

Давайте запам'ятаємо цей очевидний результат, наше друге спільність:

Коли регресори співвідносяться, R2 може бути довільно меншою, ніж сума квадратів бет.

Однак це не є універсальним відношенням, як свідчить наступна фігура.

Фіг.3, показуючи негативно корельовані регресори, але бети мають протилежні ознаки.

Тепер R2строго перевищує суму квадратів бета. За допомогою малювання двох регресорів зближуються та тримаютьсяy^ між ними ми можемо зробити бета-те і інший підхід 1/2, навіть тоді, коли R2 близький до 1. Для подальшого аналізу може знадобитися деяка алгебра: я вважаю, що це нижче.

Я залишаю вашій уяві побудувати подібні приклади з позитивно корельованими регресорами, які, таким чином, зустрічаються під гострим кутом.

Зауважте, що ці висновки неповні: обмежень на скільки менше R2можна порівняти із сумою квадратів бета. Зокрема, уважно вивчивши можливості, ви можете зробити висновок (для регресії з двома регресорами), що

Коли регресори позитивно співвідносяться і бети мають загальний знак, або коли регресори негативно співвідносяться і бета має різні ознаки, R2 повинна бути принаймні такою ж великою, як сума квадратів бета.


Результати алгебраїки

Як правило, нехай будуть регресори (стовпчикові вектори) x1,x2,,xp і відповідь буде y. Засоби стандартизації (a) кожен ортогональний вектору(1,1,,1) і (b) вони мають одиничну довжину:

|xi|2=|y|2=1.

Зберіть вектори стовпців xi в n×p матриця X. Правила множення матриці випливають із цього

Σ=XX

є кореляційною матрицею xi. Бета задані нормальними рівняннями,

β=(XX)1Xy=Σ1(Xy).

Більше того, за визначенням, придатність є

y^=Xβ=X(Σ1Xy).

Довжина його квадрата дає R2 за визначенням:

R2=|y^|2=y^y^=(Xβ)(Xβ)=β(XX)β=βΣβ.

Геометричний аналіз запропонував шукати пов'язані нерівності R2 і сума квадратів бета,

i=1pβi2=ββ.

The L2 норма будь-якої матриці A задається сумою квадратів його коефіцієнтів (в основному трактуючи матрицю як вектор p2 компоненти в евклідовому просторі),

|A|22=i,jaij2=tr(AA)=tr(AA).

Нерівність Коші-Шварца передбачає

R2=tr(R2)=tr(βΣβ)=tr(Σββ)|Σ|2|ββ|2=|Σ|2ββ.

Оскільки коефіцієнти кореляції у квадраті не можуть перевищувати 1 і є просто p2 з них у p×p матриця Σ, |Σ|2 не може перевищувати 1×p2=p. Тому

R2pββ.

Нерівність досягається, наприклад, коли всі xi ідеально позитивно співвідносяться.

Існує верхня межа щодо величини R2можливо. Його середнє значення на регресора,R2/p, не може перевищувати суму квадратів стандартизованих коефіцієнтів.


Висновки

Що ми можемо зробити загалом? Очевидно, що інформація про структуру кореляції регресорів, а також про знаки бета може використовуватися або для обмеження можливих значеньR2або навіть точно його обчислити. Відсутня ця повна інформація, мало що можна сказати поза очевидним фактом, що коли регресори лінійно незалежні, то одна ненульова бета-версія означаєy^ ненульовий, демонстраційний R2 є ненульовим.

Одне, що ми можемо однозначно зробити з висновку у питанні, - це те, що дані співвідносяться: адже сума квадратів бета, рівна 1.1301, перевищує максимально можливе значення R2 (а саме 1), має бути певна кореляція.

Інша справа, що оскільки найбільша бета (за розміром) є 0.83, площа якого 0.69--далеко перевищує повідомлений R2 з 0.20- ми можемо зробити висновок, що деякі регресори повинні бути негативно пов'язаними. (Фактично,VO2max вірогідно негативно співвідноситься з віком, вагою та жиром у будь-якому зразку, який охоплює широкий діапазон значень останнього.)

Якби було лише два регресори, ми могли б зробити набагато більше R2 від знань про високі регресорні кореляції та перевірки бета, тому що це дасть нам змогу зробити точний ескіз того, як x1, x2, і y^повинні бути розташовані. На жаль, додаткові регресори в цій шести змінній проблемі значно ускладнюють справи. Аналізуючи будь-які дві змінні, нам доведеться «вийняти» або «контролювати» інші чотири регресори («коваріати»). Роблячи це, ми скорочуємо всіx1, x2, і yна невідомі кількості (залежно від того, як усі три з них пов'язані з коваріатами), не даючи нам знати майже нічого про фактичні розміри векторів, з якими ми працюємо.


+1, але я не розумію, чому в неортогональному випадку ви проектуєте y^вектор, ортогональний осям предиктора, на відміну від того, щоб висунуті пунктирні лінії йшли паралельно іншому прогноктору. Це звучить громіздко, але я думаю, ви побачите, що я маю на увазі. Ваші "проекції" (два менших червоних вектора) не під силу, щоб отримати великий червонийy^вектор.
амеба

@amoeba Ви абсолютно праві. Я надто поспішав у створенні цих образів! Я (сподіваюсь тимчасово) видалити цю публікацію, поки не отримаю можливість виправити проблему. Дякую, що вказали на це.
whuber

@Amoeba Я виправив фотографії та змінив аналіз на їх відповідність. Хоча деталі суттєво змінилися, висновки залишаються тими ж.
whuber

1
@amoeba Знову ти прав. Маючи певний ризик втратити зацікавлених читачів, але тепер почуваючись вимушеним кількісно оцінити геометричну інтуїцію, я підтягнув цей висновок і виправдав його трохи алгеброю. (Я вірю, що алгебра правильна!)
блукання

1
Дуже дякую! Як сиденот, VO2max негативно корелює з вагою та ІМТ, оскільки вони асоціюються з більшою худою масою тіла. У зазначеній таблиці VO2max фактично відповідає VO2max, поділеному на вагу (що є поганим способом масштабування VO2max до розміру тіла). VO2max / вага в таблиці негативно співвідноситься з усіма іншими прогнозами, крім сексу, що може пояснити високий ß, але низький R-квадрат, як ви згадували.
Сакарі Юкарайнен
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.