Регресія найменшого кута підтримує кореляцію монотонно зменшуваною та зв'язаною?


9

Я намагаюся вирішити проблему для найменшого кутового регресу (ЛАР). Це проблема 3,23 на сторінці 97 з Гесте і ін., Елементи статистичного навчання, другий. ред. (5-та друкарня) .

Розглянемо проблему регресії з усіма змінними та реакцією, що мають середнє нульове та стандартне відхилення. Припустимо також, що кожна змінна має однакову абсолютну кореляцію з відповіддю:

1N|xj,y|=λ,j=1,...,p

Нехай - найменший коефіцієнт квадрата на і нехай для .β^yXu(α)=αXβ^α[0,1]

Мене просять показати, що і у мене виникають проблеми з цим. Зауважимо, що це, в основному, говорить про те, що співвідношення кожного з залишками залишаються рівними за величиною, коли ми рухаємося до .

1N|xj,yu(α)|=(1α)λ,j=1,...,p
xju

Я також не знаю, як показати, що співвідношення дорівнюють:

λ(α)=(1α)(1α)2+α(2α)NRSSλ

Будь-які вказівники будуть дуже вдячні!


2
@Belmont, що таке ? Чи можете ви надати більше контексту щодо вашої проблеми? Наприклад, посилання на статтю зі стандартними властивостями LAR дуже допоможе. u(α)
mpiktas

@ Бельмонт, Це виглядає як проблема Хасті, та ін., Елементи статистичного навчання , 2-е. ред. Це домашнє завдання? Якщо так, ви можете додати цей тег.
кардинал

@Belmont, тепер, коли @cardinal дав повну відповідь, ви можете вказати, що насправді є LAR, для подальшого ознайомлення? Судячи з відповіді, це стандартна маніпуляція продуктами з найменшими регресіями квадратів з урахуванням деяких початкових обмежень. Спеціальної назви для цього не повинно бути без серйозних причин.
mpiktas

1
@mpiktas - це поетапний алгоритм, тому щоразу, коли змінна вводить або залишає модель на шляху регуляризації, розмір (тобто кардинальність / розмірність) зростає або зменшується відповідно, і "нова" оцінка LS використовується на основі поточні "активні" змінні. Що стосується ласо, що є проблемою опуклої оптимізації, процедура по суті використовує спеціальну структуру в умовах KKT, щоб отримати дуже ефективне рішення. Існують також узагальнення, наприклад, логістична регресія на основі IRLS та Гейне-Бореля (для доведення конвергенції у кінцевих числах кроків)β
кардинал

1
@Belmont -1, як нещодавно я купив книгу Хасті, можу підтвердити, що це вправа з неї. Тож я даю вам великий -1, оскільки ви навіть не вдається дати всі визначення, я навіть не кажу про надання посилання.
mpiktas

Відповіді:


21

Це проблема 3,23 на сторінці 97 з Гесте і ін., Елементи статистичного навчання , другий. ред. (5-та друкарня) .

Ключовим моментом цієї проблеми є добре розуміння звичайних найменших квадратів (тобто лінійної регресії), зокрема ортогональності встановлених значень та залишків.

Ортогональность Лемма : Нехай буде матриця плану , вектора реакції і (вірні) параметри. Якщо припустити, що є повноцінним (що ми будемо впродовж усього), оцінки OLS є . Встановлені значення . Тоді . Тобто встановлені значення є ортогональними щодо залишків. Це випливає, оскільки .Xn×pyβXββ^=(XTX)1XTyy^=X(XTX)1XTyy^,yy^=y^T(yy^)=0XT(yy^)=XTyXTX(XTX)1XTy=XTyXTy=0

Тепер бути вектор - стовпець такої , що є - го стовпця . Передбачаються умови:xjxjjX

  • 1Nxj,xj=1 для кожного , ,j1Ny,y=1
  • 1Nxj,1p=1Ny,1p=0 де позначає вектор довжини , і1pp
  • 1N|xj,y|=λ для всіх .j

Зауважимо, що, зокрема , останнє твердження лемми ортогональності тотожне для всіх .xj,yy^=0j


Кореляції пов'язані

Тепер . Отже, а другий член праворуч дорівнює нулю за леммою ортогональності , тому за бажанням. Абсолютна величина кореляцій справедлива u(α)=αXβ^=αy^

xj,yu(a)=xj,(1α)y+αyαy^=(1α)xj,y+αxj,yy^,
1N|xj,yu(α)|=(1α)λ,
ρ^j(α)=1N|xj,yu(α)|1Nxj,xj1Nyu(α),yu(α)=(1α)λ1Nyu(α),yu(α)

Примітка : Права частина вгорі не залежить від і чисельник точно такий же, як і коваріація, оскільки ми припустили, що всі 'і розташовані по центру (так, зокрема, віднімання середнього значення не потрібно ).jxjy

У чому справа? Як збільшується вектор відповідь модифікують так , щоб вона дюймів її шлях до такого в разі ( обмежена! Розчину) за методом найменших квадратів , отримані від включення тільки перші параметрів в моделі. Це одночасно змінює оцінені параметри, оскільки вони є простими внутрішніми продуктами предикторів з (модифікованим) вектором відповіді. Однак модифікація набуває особливої ​​форми. Він зберігає (величину) кореляції між предикторами та модифікованою відповіддю однаковими протягом усього процесу (навіть незважаючи на те, що значення кореляції змінюється). Подумайте, що це робить геометрично, і ви зрозумієте назву процедури!αp


Явна форма (абсолютної) кореляції

Давайте зосередимось на терміні в знаменнику, оскільки чисельник вже в потрібній формі. У нас є

yu(α),yu(α)=(1α)y+αyu(α),(1α)y+αyu(α).

Підставляючи і використовуючи лінійність внутрішнього добутку, отримуємоu(α)=αy^

yu(α),yu(α)=(1α)2y,y+2α(1α)y,yy^+α2yy^,yy^.

Зауважте, що

  • y,y=N за припущенням,
  • y,yy^=yy^,yy^+y^,yy^=yy^,yy^ , застосувавши лемму ортогональності (ще раз) до другого члена в середині; і,
  • yy^,yy^=RSS за визначенням.

Збираючи це все разом, ви помітите, що ми отримаємо

ρ^j(α)=(1α)λ(1α)2+α(2α)NRSS=(1α)λ(1α)2(1RSSN)+1NRSS

Щоб обернути речі, і так зрозуміло, що монотонно зменшується в і як .1RSSN=1N(y,y,yy^,yy^)0ρ^j(α)αρ^j(α)0α1


Епілог : Концентруйтеся на ідеях тут. Дійсно є лише один. Ортогональность лема робить майже всю роботу за нас. Решта - це лише алгебра, позначення та вміння ці два останніх працювати.


2
@cardinal, +1. Відповідь - величини кращі, ніж питання.
mpiktas

@cardinal, ви можете змінити посилання на амазонку чи інший сайт. Я думаю, що посилання на повну книгу може викликати деякі проблеми з авторським правом.
mpiktas

3
@mpiktas, nope. Немає проблем з авторським правом. Це офіційний веб-сайт книги. Автори отримали дозвіл від Springer зробити PDF вільно доступним в Інтернеті. (Див. Примітку до цього ефекту на сайті.) Я думаю, що вони отримали цю ідею від Стівена Бойда та тексту конвексної оптимізації . Сподіваємось, така тенденція набере пар протягом наступних кількох років. Насолоджуйтесь!
кардинал

@cardinal, ooh величезне спасибі! Це може бути щедрим від авторів.
mpiktas

@mpiktas, це, безумовно, найпопулярніша книга в статистиці серії Springer. Це добре виглядає на iPad. Що мені нагадує --- Я також повинен завантажити текст Бойда. Ура.
кардинал
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.