Функція витрат у лінійній регресії OLS


32

Я трохи плутаю лекцію про лінійну регресію, яку виголосив Ендрю Нґ на Coursera про машинне навчання. Там він дав функцію витрат, яка мінімізує суму квадратів:

12мi=1м(годθ(Х(i))-Y(i))2

Я розумію, звідки походить . Я думаю, що він зробив це так, що коли він виконав похідну на квадратному терміні, 2 у квадратному терміні скасуються з половиною. Але я не розумію, звідки походить .121м

Чому нам потрібно робити ? У стандартній лінійній регресії у нас її немає, ми просто мінімізуємо залишки. Навіщо нам це потрібно тут?1м


1 / 2м допомагає знайти середню помилку за точкою даних, а m представляє загальну кількість спостережень або кількість спостережень.
Арірі Крішнан

Відповіді:


33

Як вам здається, ми розуміємо, що для лінійної регресії нам точно не потрібен коефіцієнт . Звісно, ​​мінімізатори будуть точно однакові, з ним або без нього. Одна з типових причин нормалізації за допомогою m полягає в тому, що ми можемо розглядати функцію витрат як наближення до "помилки узагальнення", яка є очікуваною квадратною втратою на випадково обраному новому прикладі (не в навчальному наборі):1/mm

Припустимо, відібрані в пробі з деякого розподілу. Тоді для великих m ми очікуємо, що 1(X,Y),(X(1),Y(1)),,(X(m),Y(m))m

1mi=1m(hθ(X(i))Y(i))2E(hθ(X)Y)2.

Точніше, за сильним законом великих чисел у нас є з вірогідністю 1.

limm1mi=1m(hθ(X(i))Y(i))2=E(hθ(X)Y)2

Примітка. Кожне з вищезазначених тверджень призначене для будь-якого конкретного , вибирається без перегляду навчального набору. Для машинного навчання, ми хочемо , щоб ці заяви для деяких & thetas обраного на основі його хороша продуктивність на навчальному наборі. Ці твердження все ще можуть бути в цьому випадку, хоча нам потрібно зробити деякі припущення щодо набору функцій { h θθθ^ , і нам знадобиться щось сильніше, ніж Закон великих чисел. {hθ|θΘ}


1
@StudentT Це, мабуть, найкраща причина використання середньої помилки над загальною. Моє пояснення насправді є лише наслідком більш глибокої причини DavidR.
Меттью Друрі

29

Вам не доведеться . Функція втрат має той самий мінімум, якщо ви включаєте або придушити його. Якщо ви включите його, ви отримаєте приємну інтерпретацію мінімізації (половини)середньоїпомилки на точку даних. Іншими словами, ви мінімізуючи помилкишвидкостізамість сумарної похибки.1м

Розглянемо порівняння продуктивності для двох наборів даних різної величини. Невизначена сума помилок у квадраті не є безпосередньо порівнянною, оскільки більші набори даних мають тенденцію до більш повної помилки саме через їх розмір. З іншого боку, середня помилка на кожну точку даних є .

Ви можете трохи допрацювати?

Звичайно. Ваш набір даних - це набір точок даних . Після того, як у вас є модель h , помилка найменших квадратів h в одній точці даних є{хi,уi}годгод

(год(хi)-уi)2

це, звичайно, різне для кожної точки даних. Тепер, якщо ми просто підсумуємо помилки (і помножимо на одну половину з причини, яку ви описали), ми отримаємо загальну помилку

12i(год(хi)-уi)2

але якщо ділити на кількість сум, отримаємо середню помилку на точку даних

12мi(год(хi)-уi)2

Перевага середньої помилки в тому , що якщо у нас є два набору даних і { х ' я , у ' я } з differeing розмірів , то ми можемо порівняти середні помилки , але не загальна кількість помилок. Оскільки, якщо другий набір даних, скажімо, в десять разів перевищує перший, то ми очікуємо, що загальна помилка буде приблизно в десять разів більша для тієї ж моделі. З іншого боку, середня помилка розділяє ефект від розміру набору даних, і тому ми могли б очікувати, що моделі подібної продуктивності матимуть однакові середні помилки для різних наборів даних.{хi,уi}{хi',уi'}


1
Я можу за тобою слідувати, ти можеш трішки розробити? Вибачте, я новачок у машинному навчанні!
SmallChess

@StudentT Я спробував уточнити свою відповідь.
Меттью Друрі

1
Це також стосується, якщо вам трапляється експериментувати з мініатюрним розміром під час стохастичного спуску градієнта, який є найпоширенішим типом лінійного градієнтного спуску при роботі з великими наборами даних: ви можете легше порівняти помилку.
jasonszhao
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.