Скажімо, ми оптимізуємо модель з параметрами θ⃗ , мінімізуючи деякий критерій f(θ⃗ ) з обмеженням на величину вектора параметрів (наприклад, для реалізації структурного підходу до мінімізації ризиків шляхом побудувавши вкладений набір моделей зростаючої складності), нам знадобиться вирішити:
minθ⃗ f(θ⃗ )s.t.∥θ⃗ ∥2<C
Лагранжан для цієї проблеми є (застереження: я думаю, це був довгий день ... ;-)
Λ(θ⃗ ,λ)=f(θ⃗ )+λ∥θ⃗ ∥2−λC.
Тому легко можна побачити, що регульована функція витрат тісно пов'язана з обмеженою задачею оптимізації, при цьому параметр регуляризації пов'язаний з постійною регулюючою обмеженням ( ) і по суті є множником Лагранжа. λC
Це ілюструє, чому, наприклад, регресія хребта реалізує структурну мінімізацію ризику: регуляризація еквівалентна обмеження на величину вагового вектора, а якщо то будь-яка модель, яка може бути зроблена, підкоряючись обмеженню,C1>C2
∥θ⃗ ∥2<C2
також будуть доступні в рамках обмеження
∥θ⃗ ∥2<C1 .
Отже, зменшення створює послідовність просторів гіпотез, що збільшують складність.λ