Хасті та Тібшірані згадують у розділі 4.3.2 своєї книги, що у лінійній регресії підхід найменших квадратів насправді є особливим випадком максимальної вірогідності. Як ми можемо довести цей результат?
PS: Не шкодуйте математичних деталей.
Хасті та Тібшірані згадують у розділі 4.3.2 своєї книги, що у лінійній регресії підхід найменших квадратів насправді є особливим випадком максимальної вірогідності. Як ми можемо довести цей результат?
PS: Не шкодуйте математичних деталей.
Відповіді:
Модель лінійної регресії
, де
, і
Зауважте, що помилка нашої моделі (залишкова) є . Наша мета - знайти векторs, які мінімізують норма цієї квадратичної помилки.
Найменші квадрати
Наведені дані де кожен є розмірними, ми прагнемо знайти:
Максимальна ймовірність
За допомогою наведеної вище моделі ми можемо встановити ймовірність даних, заданих параметрами як:
де - pdf звичайного розподілу із середнім значенням 0 та дисперсією . Підключіть його:
Зараз, як правило, якщо мати справу з вірогідністю, математично простіше взяти журнал перед тим, як продовжувати (продукти стають сумми, експоненти відходять), так що давайте це зробимо.
Оскільки ми хочемо оцінити максимальну ймовірність, ми хочемо знайти максимум рівняння, яке було зазначено вище, стосовно . Перший термін не впливає на нашу оцінку, тому ми можемо ігнорувати це:
Зауважте, що знаменник є константою відносно . Нарешті, зауважте, що перед сумою є негативний знак. Тож знаходження максимуму від’ємного числа - це як знаходження мінімуму без негативного. Іншими словами:
Нагадаємо, що для цього нам довелося зробити певні припущення щодо моделі (нормальність термінів помилки, 0 середнє значення, постійна дисперсія). Це робить найменше квадратів еквівалентним MLE за певних умов. Дивіться тут і тут для більшого обговорення.
Для повноти зауважте, що рішення можна записати так: