Виведення функції регульованої лінійної регресії лінійної регресії за курсом машинного навчання курсу


12

Я пройшов курс Ендрю Нґ «Машинне навчання» через Coursera кілька місяців тому, не звертаючи уваги на більшість математики / виведення, а натомість зосередився на впровадженні та практичності. З тих пір я почав вивчати деякі основні теорії і переглянув деякі лекції проф. Нг. Я читав його лекцію "Регульована лінійна регресія", і побачив, що він надає наступну функцію витрат:

J(θ)=12m[i=1m(hθ(x(i))y(i))2+λj=1nθj2]

Потім він надає наступний градієнт для цієї функції витрат:

θjJ(θ)=1m[i=1m(hθ(x(i))y(i))xj(i)λθj]

Я трохи розгублений у тому, як він переходить від одного до іншого. Коли я намагався зробити своє власне виведення, у мене був такий результат:

θjJ(θ)=1m[i=1m(hθ(x(i))+y(i))xj(i)+λθj]

Різниця полягає в знаку «плюс» між початковою функцією витрат та параметром регуляризації у формулі проф. Нг, що змінюється на знак «мінус» у його градієнтній функції, тоді як цього в моєму результаті не відбувається.

Інтуїтивно розумію, чому це негативно: ми зменшуємо тета-параметр на градієнтній фігурі, і хочемо, щоб параметр регуляризації зменшив величину, яку ми змінюємо, щоб уникнути перевиконання. Я просто трохи застряг в обчисленні, яке підтримує цю інтуїцію.

FYI, колоду ви можете знайти тут , на слайдах 15 і 16.


1
У своєму результаті у вас є " + ", що передує y ^ (i) - це помилка друку?
Steve S

Відповіді:


12

J(θ)=12m[i=1m(hθ(x(i))y(i))2+λj=1nθj2]

Тепер

θj(hθ(x(i))y(i))2=2[(hθ(x(i))y(i))θj{hθ(x(i))}]

θj(hθ(x(i))=[x(i)]j

θjλj=1nθ2=2λθj

Так для лінійного випадку

θjJ(θ)=1m[i=1m(hθ(x(i))y(i))xj(i)+λθj]

Схоже, можливо, у вас і в Ендрю можливі помилки. Ну, принаймні, двоє з нас із трьох.


це підтверджено, лише друкарська помилка на записці Андрія, це має бути знак +. І Проф правильно пояснює все правильно, включаючи інтуїцію θ (1-α (λ / m)), що означає кожен раз, коли ця усадка θ, то мінус звичайна частина перед введенням регуляризації.
Gob00st

4

Насправді, якщо ви перевіряєте конспекти лекцій відразу після відео, воно показує формулу правильно. Слайди, які ви виклали тут, показують точний слайд відео.

введіть тут опис зображення


coursera.org/learn/machine-learning/supplement/pKAsc/… тут є посилання на нотатки відразу після відео, що показує правильну формулу.
Gob00st

1

Власне, я думаю, що це просто помилка.

αλθα

Мати сенс?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.