Доказ рівнозначних формул регресії хребта


15

Я читав найпопулярніші книги в статистичному навчанні

1- Елементи статистичного навчання.

2- Вступ до статистичного навчання .

Обидва згадують, що регресія хребта має дві формули, рівнозначні. Чи є зрозумілий математичний доказ цього результату?

Я також пройшов Cross Valified , але я не можу знайти певного доказу там.

Крім того, буде LASSO насолоджуватися тим же типом доказування?

введіть тут опис зображення



1
Лассо не є формою регресії хребта.
Сіань

@jeza, Ви могли б пояснити, чого не вистачає у моїй відповіді? Це дійсно випливає, що все може бути отримано про зв'язок.
Рой

@jeza, Ви можете бути конкретними? Якщо ви не знаєте концепції Лагрангія для обмеженої проблеми, важко дати стислу відповідь.
Рой

1
@jeza, обмежена проблема оптимізації може бути перетворена на оптимізацію умов функцій Лагрангія / KKT (як пояснено у поточних відповідях). Цей принцип вже має багато різних простих пояснень по всьому Інтернету. У якому напрямку потрібно більше пояснення доказів? Пояснення / доказ множника / функції Лагрангія, пояснення / доказ того, як ця проблема є оптимізацією, що стосується методу Лагранжа, різниці ККТ / Лагранжа, пояснення принципу регуляризації тощо?
Секст Емпірік

Відповіді:


19

Класична регресія хребта ( регуляризація Тихонова ) задана:

argminx12xy22+λx22

Наведене вище твердження полягає в тому, що наступна проблема рівнозначна:

argminx12xy22subject tox22t

Давайте визначимо е в якості оптимального вирішення першого завдання і ~ х в якості оптимального вирішення другого завдання.x^x~

Заява про еквівалентність означає, що t,λ0:x^=x~ .
А саме у вас завжди може бути параt іλ0 таке рішення задачі те саме.

Як ми могли знайти пару?
Ну, вирішуючи задачі і дивлячись на властивості рішення.
Обидві проблеми є опуклими і гладкими, тому вони повинні спростити справи.

Рішення першої задачі задається в точці, коли градієнт зникає, що означає:

x^y+2λx^=0

У KKT умови другого завдання станів:

x~y+2μx~=0

і

μ(x~22t)=0

Останнє рівняння говорить про те, що або μ=0 або x~22=t .

Зверніть увагу, що 2 базові рівняння рівнозначні.
А саме , якщо х = ~ х і μ = λ обидва рівняння справедливі. x^=x~μ=λ

Отже, це означає, що у випадку y22t треба встановити μ=0 що означає, що для t достатньо великих розмірів для того, щоб обидва були еквівалентними, слід встановити λ=0 .

В іншому випадку слід знайти μ де:

yt(I+2μI)1(I+2μI)1y=t

Це в основному, коли x~22=t

Як тільки ви виявите, що μ розчини зіткнуться.

Що стосується випадку L1 (LASSO), то він працює з тією ж ідеєю.
Єдина відмінність полягає в тому, що ми не закрили для рішення, отже, похідне з'єднання складніше.

Подивіться на мою відповідь на підтвердженій контрольною програмою StackExchange λQ291962 та обробці сигналу StackExchange Q21730 - Значення λ у Основному переслідуванні .

Зауваження
Що насправді відбувається?
В обох проблемах x намагається бути максимально наближеним до y .
У першому випадку x=y зникне першого доданка ( відстань L2 ), а у другому випадку зникне об'єктивна функція.
Різниця полягає в тому, що в першому випадку треба збалансувати L2 Норму x . Оскільки λ стає вище, баланс означає, що ви повинні зробити x меншим.
У другому випадку є стіна, ви наближаєте x ближче і ближче до yпоки ти не вдаришся про стіну, яка є обмеженням її норми (За t ).
Якщо стіна достатньо далеко (Високе значення t ) і достатньо залежить від норми y то я не має жодного значення, як і λ має значення лише його значення, помножене на норму y починає мати значення.
Точний зв'язок - це Лагранжан, зазначений вище.

Ресурси

Я знайшов цей документ сьогодні (03.04.2019):


чи еквівалент означає, що \ lambda і \ t повинні бути однаковими. Бо я не можу цього бачити в доказі. спасибі
jeza

@jeza, Як я писав вище, для будь-якого існує λ 0 (не обов'язково дорівнює t, але функція t і дані y ), такі, що розв’язки двох форм однакові. tλ0tty
Рой

3
@jeza, обидва & t є по суті вільними параметрами. Після того, як ви вкажете, скажімо, λ , це дасть конкретне оптимальне рішення. Але t залишається вільним параметром. Отже, на даний момент твердження полягає в тому, що може бути деяке значення t, яке дало б той самий оптимальний варіант рішення. Там практично відсутні обмеження на те , що т має бути; це не так, як це має бути якась фіксована функція λ , наприклад, t = λ / 2 чи щось таке. λtλtttλt=λ/2
gung - Відновіть Моніку

@Royi, я хотів би знати 1-, чому ваша формула має (1/2), тоді як формули, про які йдеться, ні? 2- використовуєте KKT, щоб показати еквівалентність двох формул? 3- якщо так, я все одно не бачу цієї еквівалентності. Я не впевнений, але те, що я сподіваюся побачити, - це доказ, що показує формулу один = формула друга.
jeza

1. Просто легше, коли ви диференціюєте термін ЛС. Ви можете перемістити форму мій до OP λ з коефіцієнтом два. 2. Я використовував KKT для другого випадку. Перший випадок не має обмежень, отже, ви можете їх просто вирішити. 3. Між ними немає рівняння закритої форми. Я показав логіку і як можна створити графік, що їх з'єднує. Але, як я писав, це змінюватиметься для кожного y (Це залежить від даних). λλy
Рой

9

Менш суворий математично, але, можливо, більш інтуїтивний підхід до розуміння того, що відбувається, - це почати з версії обмеження (рівняння 3.42 у питанні) та вирішити її, використовуючи методи "множника Лагранжа" ( https: //en.wikipedia .org / wiki / Lagrange_multiplier або улюблений багатовимірний текст числення). Пам'ятайте лише, що в обчисленні - вектор змінних, але в нашому випадку x є постійним, а β - змінним вектором. Після застосування технології множника Лагранжа ви закінчуєте перше рівняння (3.41) (після того, як викинете зайвий - λ t, який є постійним відносно мінімізації і може бути проігнорований).xxβλt

This also shows that this works for lasso and other constraints.


8

It's perhaps worth reading about Lagrangian duality and a broader relation (at times equivalence) between:

  • optimization subject to hard (i.e. inviolable) constraints
  • optimization with penalties for violating constraints.

Quick intro to weak duality and strong duality

Assume we have some function f(x,y) of two variables. For any x^ and y^, we have:

minxf(x,y^)f(x^,y^)maxyf(x^,y)

Since that holds for any x^ and y^ it also holds that:

maxyminxf(x,y)minxmaxyf(x,y)

This is known as weak duality. In certain circumstances, you have also have strong duality (also known as the saddle point property):

maxyminxf(x,y)=minxmaxyf(x,y)

When strong duality holds, solving the dual problem also solves the primal problem. They're in a sense the same problem!

Lagrangian for constrained Ridge Regression

Let me define the function L as:

L(b,λ)=i=1n(yxib)2+λ(j=1pbj2t)

The min-max interpretation of the Lagrangian

The Ridge regression problem subject to hard constraints is:

minbmaxλ0L(b,λ)

You pick b to minimize the objective, cognizant that after b is picked, your opponent will set λ to infinity if you chose b such that j=1pbj2>t.

If strong duality holds (which it does here because Slater's condition is satisfied for t>0), you then achieve the same result by reversing the order:

maxλ0minbL(b,λ)

Here, your opponent chooses λ first! You then choose b to minimize the objective, already knowing their choice of λ. The minbL(b,λ) part (taken λ as given) is equivalent to the 2nd form of your Ridge Regression problem.

As you can see, this isn't a result particular to Ridge regression. It is a broader concept.

References

(I started this post following an exposition I read from Rockafellar.)

Rockafellar, R.T., Convex Analysis

You might also examine lectures 7 and lecture 8 from Prof. Stephen Boyd's course on convex optimization.


note that your answer can be extended to any convex function.
81235

6

They are not equivalent.

For a constrained minimization problem

(1)minbi=1n(yxib)2s.t.j=1pbj2t,b=(b1,...,bp)

we solve by minimize over b the corresponding Lagrangean

(2)Λ=i=1n(yxib)2+λ(j=1pbj2t)

Here, t is a bound given exogenously, λ0 is a Karush-Kuhn-Tucker non-negative multiplier, and both the beta vector and λ are to be determined optimally through the minimization procedure given t.

Comparing (2) and eq (3.41) in the OP's post, it appears that the Ridge estimator can be obtained as the solution to

(3)minb{Λ+λt}

Since in (3) the function to be minimized appears to be the Lagrangean of the constrained minimization problem plus a term that does not involve b, it would appear that indeed the two approaches are equivalent...

But this is not correct because in the Ridge regression we minimize over b given λ>0. But, in the lens of the constrained minimization problem, assuming λ>0 imposes the condition that the constraint is binding, i.e that

j=1p(bj,ridge)2=t

The general constrained minimization problem allows for λ=0 also, and essentially it is a formulation that includes as special cases the basic least-squares estimator (λ=0) and the Ridge estimator (λ>0).

So the two formulation are not equivalent. Nevertheless, Matthew Gunn's post shows in another and very intuitive way how the two are very closely connected. But duality is not equivalence.


@MartijnWeterings Thanks for the comment, I have reworked my answer.
Alecos Papadopoulos

@MartijnWeterings I do not see what is confusing since the expression written in your comment is exactly the expression I wrote in my reworked post.
Alecos Papadopoulos

1
This was the duplicate question I had in mind were the equivalence is explained very intuitively to me math.stackexchange.com/a/336618/466748 the argument that you give for the two not being equivalent seems only secondary to me, and a matter of definition (the OP uses λ0 instead of λ>0 and we could just as well add the constrain t<βOLS22 to exclude the cases where λ=0) .
Sextus Empiricus

@MartijnWeterings When A is a special case of B, A cannot be equivalent to B. And ridge regression is a special case of the general constrained minimization problem, Namely a situation to which we arrive if we constrain further the general problem (like you do in your last comment).
Alecos Papadopoulos

Certainly you could define some constrained minimization problem that is more general then ridge regression (like you can also define some regularization problem that is more general than ridge regression, e.g. negative ridge regression), but then the non-equivalence is due to the way that you define the problem and not due to the transformation from the constrained representation to the Lagrangian representation. The two forms can be seen as equivalent within the constrained formulation/definition (non-general) that are useful for ridge regression.
Sextus Empiricus
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.