Розуміння негативної регресії хребта


12

Я шукаю літературу про негативну регресію хребта .

Коротше кажучи, це узагальнення лінійної регресії з використанням коника негативний λ у формулі

β^=(XX+λI)1Xy.
Позитивний випадок має хорошу теорію: як функція втрат, як обмеження, як Байєс до ... але я відчуваю втрату від негативної версії лише вищевказаною формулою. Це може бути корисним для того, що я роблю, але я не можу це зрозуміло зрозуміти.

Чи знаєте ви якийсь серйозний вступний текст про негативний хребет? Як це можна інтерпретувати?


1
Я не знаю жодного вступного тексту, який розповідає про це, але це джерело може бути освічуючим, особливо дискусія внизу сторінки 18: jstor.org/stable/4616538?seq=1#page_scan_tab_contents
Райан Сіммонс,

1
У випадку, якщо в майбутньому посилання вмирає, повна цитата є: Björkström, A. & Sundberg, R. "Узагальнений погляд на регресію континууму". Скандинавський журнал статистики, 26: 1 (1999): стор.17-30
Райан Сіммонс

2
Дуже дякую. Це дає чітку інтерпретацію хребта через CR, коли (найбільше власне значення коваріаційної матриці). Ще шукає тлумачення з λ > - λ 1 ...λ<-λ1λ>-λ1
Бенуа Санчес

Зауважимо в цьому розвитку регресії хребта від регуляризації Тихонова, що тихонова регуляризація стає α 2 I для регресії хребта. Згодом α 2 зазвичай замінюється на λ . Єдиний спосіб зробити цей від’ємник - α уявним, тобто кратним i = ΓТΓα2Яα2λα . Гаразд, що тепер? Куди ви хочете піти з нею? i=-1
Карл

Згаданий тут негативний хребет: stats.stackexchange.com/questions/328630/… з деякими посиланнями
kjetil b halvorsen

Відповіді:


12

Ось геометрична ілюстрація того, що відбувається з негативним хребтом.

β^λ=(ХХ+λЯ)-1Ху
λ[0,)
Lλ=yXβ2+λβ2.
λ[0,)

введіть тут опис зображення

Тепер розглянемо , що відбувається , коли , де є найбільшим сингулярним значенням . Для дуже великих негативних лямбдів звичайно близький до нуля. Коли лямбда наближається до , термін отримує одне особливе значення, що наближається до нуля, що означає, що обернена має одне особливе значення, що йде на мінус нескінченність. Це особливе значення відповідає першому головному компоненту , тому в межі отримує вказує в напрямку PC1, але при цьому абсолютне значення зростає до нескінченності.з т х Х & beta ; А , - з 2 макс ( ХХ + А , я ) Х & beta ; А ,λ(,smax2)smaxXβ^λsmax2(XX+λI)Xβ^λ

Що насправді приємно, це те, що можна намалювати його на одній фігурі так само: бети задаються точками, де кола торкаються еліпсів зсередини :

введіть тут опис зображення

Коли , застосовується аналогічна логіка, що дозволяє продовжувати шлях хребта з іншого боку Оцінювача OLS. Тепер кола торкаються еліпсів зовні. межа, бета-версії наближаються до напрямку PC2 (але це трапляється далеко за межами цього ескізу):λ(smin2,0]

введіть тут опис зображення

Діапазон є чимось енергетичним розривом : там оцінювачі не живуть на одній кривій.(smax2,smin2)

ОНОВЛЕННЯ: У коментарях @MartinL пояснює, що для втрата не має мінімуму, але має максимум. І цей максимум дає . Ось чому та сама геометрична конструкція з дотиком кола / еліпса продовжує працювати: ми все ще шукаємо точки нульового градієнта. Коли , втрата має мінімум, і вона задається , точно так, як у звичайному випадок. л А , & beta ; А , - з 2 м я п < А , & le ; 0 л А , & beta ; А , А , > 0λ<smax2Lλβ^λsmin2<λ0Lλβ^λλ>0

Але коли , втрата не має ані максимуму, ані мінімального; відповідав би точці сідла. Це пояснює "енергетичний розрив".smax2<λ<smin2Lλβ^λ


природним чином випливає з певного обмеженого коника регресії, см Межа «блок-дисперсійного» Хребет регресійної оцінки при . Це пов’язано з тим, що відомо в літературі з хіміометрії як "регресія континууму", мою відповідь див. У пов'язаній нитці.λ(,smax2)λ

можна розглядати точно так же, як : функція втрат залишається тим же самим і оцінювач гребінь забезпечує його мінімум.λ(-смiн2,0]λ>0


1
Дякую за цікаві графіки. Коли , рішення, яке ви зрозуміли, - це глобальний максимум функції вартості, а не глобальний мінімум. Аналогічно, коли , точка, яку ви схопили, повинна бути точкою сідла функції витрат. λ<smax2smax2<λ<0
Мартін Л

1
Розглянемо лише квадратичні терміни у функції витрат. Їх можна записати як Нехай , тоді матриця в дужках має лише негативні власні значення. Нехай , а матриця має як позитивні, так і негативні власні значення. Ці власні значення впливають на те, чи точка є сідловим моментом, мінімумом чи максимумом функції витрат.
βT(XTX+λI)β.
λ<smax2smax2<λ<0
Мартін Л

1
Це дуже корисно, спасибі велике. Я зробив оновлення своєї відповіді.
амеба

1
Дякую. Зокрема, для розуміння того, що точка сідла виконується лише тоді, коли . Коли , рішення все ще є глобальним мінімумом з тих пір, є позитивним певним. Мій попередній коментар був частково невірним. smax2<λ<smin2λ>smin2XTX+λI
Мартін Л
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.