Чому додається термін регуляризації * до функції витрат (замість множення тощо)?


51

Щоразу, коли використовується регуляризація, вона часто додається до функції витрат, наприклад у наступній функції витрат. Це має для мене інтуїтивний сенс, оскільки мінімізувати значення Функція витрат означає мінімізацію похибки (лівий член) і мінімізацію величин коефіцієнтів (правий член) одночасно (або принаймні врівноваження двох мінімізацій).

J(θ)=12(yθXT)(yθXT)T+αθ22

Моє запитання: чому цей термін регуляризації αθ22 додається до початкової функції витрат, а не помножується чи щось інше, що зберігає дух мотивації за ідеєю регуляризації? Це тому, що якщо ми просто додаємо термін до нього досить просто і дозволяє нам вирішити це аналітично, чи є якась глибша причина?


1
Інший аргумент - через теорему представника,
jkabrg

2
лагранжевий множник
Хайтао Ду

9
Якщо у вас більше незалежних змінних, ніж спостереження, ви можете отримати 12(yθXT)(yθXT)T до нуля кількома різними способами, тому множення на що-небудь не буде допоможіть розрізнити корисну модель
Генрі

Відповіді:


47

У байєсівських рамок є досить приємна інтуїція. Вважайте, що регульована функція витрат J грає аналогічну роль, як ймовірність конфігурації параметра θ даними спостережень X,y . Застосовуючи теорему Байєса, отримуємо:

P(θ|X,y)=P(X,y|θ)P(θ)P(X,y).

Прийняття журналу виразу дає нам:

logP(θ|X,y)=logP(X,y|θ)+logP(θ)logP(X,y).

Тепер скажімо, що - від'ємний 1 log-posterior, . Оскільки останній член не залежить від , ми можемо його опустити, не змінюючи мінімуму. У вас залишаються два терміни: 1) термін вірогідності залежно від і , і 2) попередній термін залежно від . Ці два терміни точно відповідають терміну даних та терміну регуляризації у вашій формулі.J(θ)logP(θ|X,y)θlogP(X,y|θ)XylogP(θ)θ

Ви можете піти ще далі і показати, що функція втрат, яку ви розмістили, точно відповідає такій моделі:

P(X,y|θ)=N(y|θX,σ12),
P(θ)=N(θ|0,σ22),

де параметри походять від нульового середнього гауссового розподілу, а спостереження мають нульовий середній гауссовий шум. Детальніше дивіться у цій відповіді .θy


1 Негативний, оскільки ви хочете збільшити ймовірність, але мінімізувати витрати.


5
Я трохи не задоволений цією відповіддю, тому що вона просто передає рукою відповідність між вартісною функцією та журналом заднього. Якщо вартість не відповідала журналу заднього, а скоріше самому задньому, ми можемо зробити висновок, що регуляризацію слід помножити на нерегульовану вартість (як, наприклад, про запитання ОП). - Щоб правильно обґрунтувати цю відповідь, вам потрібно буде обґрунтувати, чому саме журнал задній, який ми прирівнюємо до вартості. (Ви начебто робите з "ідіть ще далі", але ви отримуєте трохи хвилеподібну руку в цій точці.)
RM

1
@RM, дійсна точка. Є причина: це тому, що стандартні функції втрат, які використовуються в машинному навчанні, відповідають лог-задньому, а не самому задньому. Чому? Оскільки вони використовують емпіричну мінімізацію ризиків; , а стандартні функції втрат зазвичай мають форму де - функція втрат, яка має розумну інтерпретацію як логічно-задньої ймовірності. (Я підозрюю, що ви це знаєте, але я просто прописую це для інших відвідувачів.)logP(X1,,Xn,y1,,yn|θ)=ilogP(Xi,yi|θ)if(Xi,yi,θi)f
DW

@RM Якщо у вас є вартість ви завжди можете просто переосмислити свою проблему з точки зору . Іншими словами, незалежно від вашої функції витрат, він визначає розподіл на основі розділеного на деяку нормалізуючу константу, яку ви можете ігнорувати, використовуючи методи MCMC. Те, що ви завжди можете переробити з точки зору експоненції, є дуже важливим, наприклад, наприклад, для імітаційного відпалу, пробовідбірників MCMC тощоCC=explnCexplnC
ely

@RM, наприклад, розглянемо цей документ Джуна Лю (і подібний коментар є у книзі MCMC Лю), де на сторінці 3 внизу написано: "Нехай бути цільовим розподілом ймовірності під час дослідження (імовірно, всі pdfs можуть бути записані у цій формі) "(наголос додано). Отже, з точки зору Байєса, де частина задньої частини, визначена імовірнісною моделлю, була б цією функцією втрати, ця баєсова декомпозиція для цієї відповіді була б цілком загальною. π(x)=cexph(x)
ely

Дякую за відповідь! Я намагаюся зрозуміти "це" на початку вашої публікації: що саме ви стверджуєте, що в байесівських рамках є приємна інтуїція? основна причина, чому додавання штрафних санкцій дає хороші оцінки? або історична (і нестатистична) причина, чому люди використовують ці додаткові оцінки? (Коли я намагався підказати
фразу

34

Ян і Кагдас дають хороший байесівський розум, трактуючи регуляризатор як пріоритет. Ось кілька не-баєсівських:

  • Якщо ваша нерегульована мета випукла, і ви додаєте опуклий регуляризатор, то ваша загальна мета все одно буде опуклою. Це не буде правдою, якщо ви помножите його чи більшість інших способів комбінування. Опукла оптимізація - це дуже, дуже приємно порівняно з неопуклою оптимізацією; якщо опукла рецептура працює, то це краще робити.

  • Іноді це призводить до дуже простої закритої форми, оскільки Wpof згадує , що стосується регресії хребта.

  • Якщо ви думаєте про проблему, яку ви "дійсно" хочете вирішити як проблему із жорстким обмеженням то її подвійний Lagrange - це проблема Хоча вам і не потрібно використовувати подвійність Лагранжа, багато про це розуміється.

    minθ:c(θ)0J(θ),
    minθJ(θ)+λc(θ).
  • Як згадував огогмад , теорема представника застосовується до випадку адитивного штрафу: якщо ви хочете оптимізувати над цілим відтворюючим ядром Гільбертового простору функцій , то ми знаємо, що рішення для оптимізації по всьому простору лежить у простому кінцевомірному підпросторі для багатьох втрат ; Я не знаю, чи було б це застосовано для мультиплікативного регулятора (хоча це може бути). Це лежить в основі SVM-файлів ядра.fH

    minfHJ(f)+λfH2
    J
  • Якщо ви все-таки глибоко навчаєтесь чи щось не випуклі: втрати на добавці дають прості градієнти присадок. Для простого ви дали, він стає дуже простим зменшенням ваги . Але навіть для більш складного регуляризатора, скажімо WGAN-GP «s втрата простіше обчислювати градієнти задніх розмірів, коли йому потрібно враховувати лише суму втрати та складний регуляризатор (розглядаючи речі окремо), а не потрібно виконуйте правило продукту.L2

    x,yfθ(x)fθ(y)the loss+λE^αUniform(0,1)(fθ(αx+(1α)y)1)2the regularizer,
  • Додаткові втрати також піддаються популярному алгоритму оптимізації ADMM та інших алгоритмів на основі "декомпозиції".

Жодне з цих правил не є жорстким і швидким, і справді іноді мультиплікативний (або який-небудь інший) регулярист може працювати краще (як вказує ogogmad ). (Насправді, я просто днями подав документ про те, як щось, що ви могли б інтерпретувати як мультипликативний регуляризатор, краще, ніж добавка WGAN-GP вище). Але, сподіваємось, це допомагає пояснити, чому регулятори добавок є "типовими".


2
+1. Удачі у Вашому [імовірно NIPS] поданні!
амеба каже, що повернеться до Моніки

13

Ви хочете мінімізувати обидва терміни в цільовій функції. Тому вам потрібно розлучити умови. Якщо ви помножите терміни, у вас може бути один термін великий, а другий - дуже низький. Отже, у вас все ще виникає низьке значення цільової функції, але з небажаним результатом.

Ви можете отримати модель, яка має найбільш змінну, близьку до нуля, без прогнозованої потужності.

введіть тут опис зображення введіть тут опис зображення

Об'єктивна функція, яка є функцією, яка повинна бути мінімізована, може бути побудована як сума функції витрат та терміни регуляризації.

Якщо обидва не залежать один від одного, ви отримуєте значення, проілюстровані на першому малюнку для цілі. Ви бачите, що у випадку суми є лише один мінімум при (0, 0). У випадку товару ви маєте неоднозначність. У вас ціла гіперповерхня, рівна нулю при (x = 0 або y = 0). Отже, алгоритм оптимізації може закінчуватися де завгодно залежно від вашої ініціалізації. І він не може вирішити, яке рішення краще.


10

Ви можете спробувати інші двійкові операції ( ) і подивитися, як вони порівнюються.max,min,×

Проблема з та полягає в тому, що якщо помилка дорівнює , то санкціонований штраф закінчиться рівним . Це дозволяє моделі переобладнати.min×00

Проблема з полягає в тому, що ви закінчуєте мінімізувати "складніше" двох штрафних санкцій (помилка тренувань або регуляризація), але не інше.max

На противагу цьому, просто і працює.+

Ви можете запитати, чому б не інші бінарні операції? Не існує жодного аргументу, який міг би їх виключати, то чому б насправді ні?


8

Я думаю, у вас є дійсне питання. Щоб дати правильну відповідь, вам доведеться зрозуміти ймовірнісний характер проблеми.

Загалом проблема, яку ми намагаємося вирішити, полягає в наступному: З огляду на дані який розподіл гіпотез пояснює ці дані. Коли ми говоримо гіпотезу, ми маємо на увазі PDF (принаймні в цьому контексті). А розподіл гіпотез - це PDF-файли PDF, тобто .Dp(H|D)

  1. p(H|D) представляє собою розподіл за даними гіпотез . Якщо ми зможемо знайти це, то можемо вибрати одну з цих гіпотез, наприклад, найбільшу ймовірність, або ми можемо вибрати середнє значення для всіх. Дещо простіший підхід - атакувати проблему з іншого напрямку, використовуючи теорему Байєса.D

    p(H|D)=p(D|H)×p(H)p(D)
  2. p(D|H) - одна з гіпотез, її також називають ймовірністю. - розподіл гіпотез у нашому Всесвіті гіпотез перед спостереженням даних. Після спостереження за даними ми оновлюємо свої переконання.p(H)

  3. p(D) - середнє значення гіпотез, перш ніж ми оновили свої переконання.

Тепер, якщо ми візьмемо обох сторін рівняння Байєса, отримаємо:log

log[p(H|D)]=log[p(D|H)]log[p(H)]+log[p(D)]

Зазвичай важко обчислити. Хороша річ, що це не впливає на результат. Це просто константа нормалізації.p(D)

Наприклад, якщо наш набір гіпотез - це купа гауссів з де ми не знаємо , але припустимо, що знає (або принаймні припустимо, що це константа), і більше того, самі гіпотези поширюються як гауссові з тоді підключення всього вище виглядає приблизно так:p(D|H)p(y|X,θ)N(θX,σ)θσp(H)=p(θ)N(0,α1I)

log[p(H|D)]=bunch of constants+12(yθX)2+12α||θ||2+constant

Тепер, якщо мінімізувати цей вираз, ми знаходимо гіпотезу з найбільшою ймовірністю. Константи не впливають на мінімізацію. Це вираз у вашому запитанні.

Той факт, що ми використовували гаусівців, не змінює факту регуляризації додатково. Він повинен бути адитивним (в лог-терміні або мультиплікативним у ймовірності), іншого вибору немає. Що зміниться, якщо ми будемо використовувати інші дистрибутиви - це компоненти додавання. Надана вами функція витрат / збитків є оптимальною для конкретного сценарію гауссів.


Ей, Кагдас, дякую за пояснення. Я не розумів перетворення останнього рівняння на RHS. Чи можете ви вказати на якийсь ресурс, щоб я зрозумів цю частину чіткіше
Ітачі

7

Хребет - це дуже зручна рецептура. На відміну від імовірнісних відповідей, ці відповіді не дають жодної інтерпретації оцінки, але натомість пояснює, чому хребет - це стара і очевидна формулювання.

У лінійній регресії нормальні рівняння дають θ^=(XTX)1XTy

Але, матриця іноді не повертається; один з способів , щоб налаштувати його, додаючи невеликий елемент до діагоналі: .XTXXTX+αI

Це дає рішення: ; тоді не вирішує початкову проблему, а замість неї задачу.θ~=(XTX+αI)1XTyθ~


3
Вкажіть, будь ласка, відповіді, на які ви звертаєтесь. Впорядкованість рухатиметься навколо того, як голоси накопичуються так "вище", за своєю суттю неоднозначні.
gung - Відновіть Моніку

1

Я думаю, що є більш інтуїтивна причина, чому ми не можемо помножити на термін регуляризації.

Давайте переведемо нашу функцію штрафу до функції звичайного штрафу, помноженої на термін регуляризації, як ви запропонували.

J(θ)=(12(yθXT)(yθXT)T)αθ22

Тут ми створюємо глобальний мінімум функції штрафу, де . У цьому випадку наша модель може створювати великі помилки між прогнозуванням і даними, але це не має значення, якщо вага параметрів моделі дорівнює нулю, наша штрафна функція дорівнює нулю .αθ22=0J(θ=0)=0

Оскільки, якщо наша модель не є абсолютно досконалою, термін ніколи не може бути нульовим (ймовірність існування множини θ щоб зробити нашу модель «досконалою» незначною для реальних даних), то наша модель завжди повинна прагнути до рішення θ = 0.(12(yθXT)(yθXT)T)

Це те, що воно повернеться, якщо не зациклюється на місцевому мінімумі десь.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.