Як “працює” кількісна регресія?


25

Я сподіваюся отримати інтуїтивне, доступне пояснення кількісної регресії.

Скажімо, у мене простий набір результатів Y та прогнози X1,X2 .

Наприклад, якщо я запускаю квантильну регресію в .25, .5, .75 і повертаюсь β0,.25,β1,.25...β2,.75 .

Чи знаходять значення β простим упорядкуванням значень y та виконанням лінійної регресії на основі прикладів, що знаходяться в / біля даного квантиля?

Або всі зразки вносять внесок у β оцінки, зі зменшенням ваги, у міру збільшення відстані від квантиля?

Або це щось зовсім інше? Я ще повинен знайти доступне пояснення.


3
Щодо математики, ви можете скористатися цими двома відповідями: stats.stackexchange.com/questions/102906/… , stats.stackexchange.com/questions/88387/…
Енді

Відповіді:


21

Я рекомендую Koenker & Hallock (2001, Journal of Economic Perspectives) та однойменний підручник Koenker .

  1. Вихідним моментом є спостереження, що медіана набору даних мінімізує суму абсолютних помилок . Тобто квантил 50% - це рішення певної проблеми оптимізації (щоб знайти значення, яке мінімізує суму абсолютних помилок).
  2. З цього легко знайти, що будь-який -квантиль є рішенням конкретної задачі мінімізації, а саме мінімізувати суму асиметрично зважених абсолютних помилок з вагами, які залежать від τ .ττ
  3. Нарешті, щоб зробити крок до регресії, ми моделюємо рішення цієї задачі мінімізації як лінійну комбінацію змінних предиктора, тому тепер проблема полягає у пошуку не одного значення, а набору параметрів регресії.

Тож ваша інтуїція цілком правильна: усі зразки вносять свій внесок у оцінки, з асиметричними вагами залежно від квантилу τ, на який ми прагнемо.βτ


Що стосується вашого пункту 1), чи це не буде правдивим лише за умови, що Y симетрично розподілений? Якщо Y перекошений як {1, 1, 2, 4, 10}, медіана 2, безумовно, не зведе до мінімуму абсолютну помилку. Чи квантильна регресія завжди передбачає, що Y симетрично розподілений? Спасибі!
Бен

1
@Ben: ні, симетрія не потрібна. Ключовим моментом є те, що медіана мінімізує очікувану абсолютну помилку. Якщо у вас дискретний розподіл зі значеннями 1, 2, 4, 10 та ймовірностями 0,4, 0,2, 0,2, 0,2, то підсумок точок 2 дійсно мінімізує очікувану абсолютну помилку. Моделювання - це лише кілька рядків коду R:foo <- sample(x=c(1,2,4,10),size=1e6,prob=c(.4,.2,.2,.2),replace=TRUE); xx <- seq(1,10,by=.1); plot(xx,sapply(xx,FUN=function(yy)mean(abs(yy-foo))),type="l")
С. Коласа - Відновлення Моніки

(І так, я мав би бути чіткішим у своїй відповіді, замість того, щоб обговорювати "суми".)
С. Коласа - Відновіть Моніку

Дерп. Про що я думав. Це має сенс зараз, дякую.
Бен

19

Основна ідея кількісної регресії випливає з того, що аналітик зацікавлений у розподілі даних, а не просто середніх даних. Почнемо із середнього.

Середня регресія відповідає лінії виду середньому значенню даних. Іншими словами, E ( Y | X = x ) = x β . Загальний підхід для оцінки цієї лінії використовує метод найменшого квадрату, arg min β ( y - x β ) ( y - X β ) .y=XβE(Y|X=x)=xβargminβ(yxβ)(yXβ)

З іншого боку, середня регресія шукає лінію, яка очікує, що половина даних знаходиться на сторонах. У цьому випадку цільовою функцією є де | . | є першою нормою.argminβ|yXβ||.|

Розширення ідеї про медіану до квантилію призводить до квантильної регресії. Ідея полягає в тому, щоб знайти лінію, що відсоток даних виходить за межі цього.α

Тут ви зробили невелику помилку, Q-регресія - це не так, як знайти квантил даних, а потім підібрати рядок до цього підмножини (або навіть межі, яка є більш складною).

α

β^α=argminβ{α|yXβ|I(y>Xβ)+(1α)|yXβ|I(y<Xβ)}.

Як бачите, ця розумна цільова функція - це не що інше, як переклад квантиля на проблему оптимізації.

βα


Ця відповідь геніальна.
Jinhua Wang
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.