Я шукаю літературу про негативну регресію хребта .
Коротше кажучи, це узагальнення лінійної регресії з використанням коника негативний у формулі
Чи знаєте ви якийсь серйозний вступний текст про негативний хребет? Як це можна інтерпретувати?
Я шукаю літературу про негативну регресію хребта .
Коротше кажучи, це узагальнення лінійної регресії з використанням коника негативний у формулі
Чи знаєте ви якийсь серйозний вступний текст про негативний хребет? Як це можна інтерпретувати?
Відповіді:
Ось геометрична ілюстрація того, що відбувається з негативним хребтом.
Тепер розглянемо , що відбувається , коли , де є найбільшим сингулярним значенням . Для дуже великих негативних лямбдів звичайно близький до нуля. Коли лямбда наближається до , термін отримує одне особливе значення, що наближається до нуля, що означає, що обернена має одне особливе значення, що йде на мінус нескінченність. Це особливе значення відповідає першому головному компоненту , тому в межі отримує вказує в напрямку PC1, але при цьому абсолютне значення зростає до нескінченності.з т х Х & beta ; А , - з 2 макс ( Х ⊤ Х + А , я ) Х & beta ; А ,
Що насправді приємно, це те, що можна намалювати його на одній фігурі так само: бети задаються точками, де кола торкаються еліпсів зсередини :
Коли , застосовується аналогічна логіка, що дозволяє продовжувати шлях хребта з іншого боку Оцінювача OLS. Тепер кола торкаються еліпсів зовні. межа, бета-версії наближаються до напрямку PC2 (але це трапляється далеко за межами цього ескізу):
Діапазон є чимось енергетичним розривом : там оцінювачі не живуть на одній кривій.
ОНОВЛЕННЯ: У коментарях @MartinL пояснює, що для втрата не має мінімуму, але має максимум. І цей максимум дає . Ось чому та сама геометрична конструкція з дотиком кола / еліпса продовжує працювати: ми все ще шукаємо точки нульового градієнта. Коли , втрата має мінімум, і вона задається , точно так, як у звичайному випадок. л А , & beta ; А , - з 2 м я п < А , & le ; 0 л А , & beta ; А , А , > 0
Але коли , втрата не має ані максимуму, ані мінімального; відповідав би точці сідла. Це пояснює "енергетичний розрив".
природним чином випливає з певного обмеженого коника регресії, см Межа «блок-дисперсійного» Хребет регресійної оцінки при . Це пов’язано з тим, що відомо в літературі з хіміометрії як "регресія континууму", мою відповідь див. У пов'язаній нитці.
можна розглядати точно так же, як : функція втрат залишається тим же самим і оцінювач гребінь забезпечує його мінімум.