Відповіді:
Коротка відповідь: Щоразу, коли ви стикаєтеся з однією з таких ситуацій:
Регресія хребта, як правило, дає кращі прогнози, ніж рішення OLS, завдяки кращому компромісу між ухилом та дисперсією. Його головний недолік полягає в тому, що всі передбачувачі зберігаються в моделі, тому не дуже цікаво, якщо ви шукаєте парсимонізовану модель або хочете застосувати якийсь вибір функції.
Для досягнення розрідженості ласо є більш доцільним, але це не обов'язково дасть хороші результати за наявності високої колінеарності (було помічено, що якщо прогноктори сильно корелюють, у прогнозуванні роботи ласо домінує регресія хребта). Друга проблема штрафу L1 полягає в тому, що рішення ласо не визначається однозначно, коли кількість змінних перевищує кількість досліджуваних (це не стосується регресії хребта). Останній недолік ласо полягає в тому, що він має тенденцію вибирати лише одну змінну серед групи предикторів з високими парними кореляціями. У цьому випадку існують альтернативні рішення типу групи (тобто домогтися усадки на блоці коваріатів, тобто деякі блоки регресійних коефіцієнтів точно дорівнюють нулю) або злитіласо. Графічний Lasso також пропонує багатообіцяючі можливості для GGMs (див R glasso пакет).
Але, безумовно, критерії еластичної мережі , що є комбінацією штрафних санкцій L1 і L2, досягають як усадки, так і автоматичного вибору змінних, і це дозволяє зберегти змінні у випадку, коли . Після Зу і Хасті (2005) він визначається як аргумент, який мінімізує (понад )
де і.
Lasso може бути обчислена за допомогою алгоритму на основі координатного спуску , як описано в недавній роботі Фрідмана і Coll., Регулярізірующего Доріжки узагальнених лінійних моделей з допомогою координатного спуску (JSS, 2010) або алгоритму LARS. В R, то штрафували , Lars або biglars і glmnet пакети корисні пакети; в Python є інструментарій scikit.learn , який має велику документацію про алгоритми, що застосовуються для застосування всіх трьох видів схем регуляризації.
Що стосується загальних посилань, сторінка Лассо містить більшу частину того, що потрібно для початку регресії ласо та технічні деталі щодо L1-штрафу, і це пов'язане питання містить суттєві посилання. Коли я повинен використовувати ласо проти гребеня?
Теоретичне обґрунтування використання регресії хребта полягає в тому, що її рішення - це заднє середнє значення, задане нормальним попереднім коефіцієнтом. Тобто, якщо ви переймаєтесь квадратичною помилкою і вірите в нормальний попередній показник, то оцінки хребта є оптимальними.
Аналогічно, оцінка ласо - це задній режим під подвійною експоненцією на ваші коефіцієнти. Це оптимально за функції нульового втрати.
На практиці ці методи, як правило, покращують точність прогнозування в ситуаціях, коли у вас є багато співвідносних змінних і не багато даних. Хоча Оцінювач OLS є найкращим лінійним неупередженим, він сильно відрізняється в цих ситуаціях. Якщо ви дивитесь на відхилення відхилення відхилення, точність прогнозування покращується, оскільки невелике збільшення зміщення більше ніж компенсується великим зменшенням дисперсії.