Вибачте за свої навички живопису, я спробую дати вам наступну інтуїцію.
Нехай є об'єктивною функцією (наприклад, MSE у разі регресії). Давайте уявимо контурний графік цієї функції червоним кольором (звичайно, ми малюємо її у просторі , тут для простоти та ).β β 1 β 2f( β)ββ1β2
Ця функція є мінімум посеред червоних кіл. І цей мінімум дає нам не санкціоноване рішення.
Тепер ми додаємо різні цілі контурний графік яких заданий синім кольором. Або регулятор LASSO, або регулятор регресії хребта. Для LASSO , для регресії хребта ( - це пеналізація параметр). Контурні графіки показують область, у якій функції мають фіксовані значення. Отже, чим більше - тим швидше зростання і тим більше "вузький" контурний графік.g ( β ) = λ ( | β 1 | + | β 2 | ) g ( β ) = λ ( β 2 1 + β 2 2 ) λ λ g ( x )г( β)г( β) = λ ( | β1| + | β2| )г( β) = λ ( β21+ β22)λλг( х )
Тепер ми повинні знайти мінімум суми цих двох цілей: . І це досягається, коли два контурних ділянки зустрічаються один з одним.f( β) + g(β)
Чим більший штраф, тим "більш вузькі" сині контури ми отримуємо, і тоді ділянки зустрічаються один з одним у точці, ближчій до нуля. І навпаки: чим менший розмір штрафу, тим контури розширюються, і перетин синіх та червоних ділянок наближається до центру червоного кола (не пеналізоване рішення).
А тепер слідує цікава річ, яка значно пояснює мені різницю між регресією хребта та LASSO: у випадку LASSO два контурні графіки, ймовірно, будуть зустрічатися там, де знаходиться кут ( або ). У разі регресу хребта, що майже ніколи не буває.β 2 = 0β1= 0β2= 0
Ось чому LASSO дає нам розріджене рішення, роблячи деякі параметри точно рівними .0
Сподіваємось, що це пояснить деяку інтуїцію щодо того, як працює пенізована регресія в просторі параметрів.