Чому коефіцієнти лінійної та логістичної регресії неможливо оцінити за допомогою одного методу?


9

Я читав у книзі машинного навчання, що параметри лінійної регресії можна оцінити (серед інших методів) за допомогою градієнтного спуску, тоді як параметри логістичної регресії зазвичай оцінюються за максимальною оцінкою ймовірності.

Чи можна пояснити новакові (мені), чому нам потрібні різні методи для лінійної / логістичної регресії. а чому б не MLE для лінійної регресії і чому не спуск градієнта для логістичної регресії?

Відповіді:


19

Ви плутаєте яблука з апельсинами. Це нормально, адже вони обоє смачні.

Максимальна оцінка ймовірності - це те, що ви мінімізуєте, градієнтний спуск - це те, як ви її мінімізуєте.

Чому б не MLE для лінійної регресії?

Насправді, лінійна регресія буде вирішена з максимальним правдоподібністю. Стандартний метод "мінімізувати суму помилок у квадраті" точно математично еквівалентний максимальній оцінці ймовірності з використанням умовного нормального розподілу.

Чому б не схилити градієнт для логістичної регресії?

Ви можете повністю вирішити логістичну регресію, мінімізувавши ймовірність функції за допомогою градієнтного спуску. Насправді це чудова вправа, і я б рекомендував усім зробити це хоча б раз.

Спуск градієнта - це не стандартний метод. Цей приз присуджується повторно зваженим найменшим квадратам / методу Ньютона , який є посиленням градієнтного спуску, який враховує і другу похідну. Цей метод, як виявляється, має набагато кращі властивості, ніж градієнтний спуск, але складніший для розуміння та реалізації.


2
Дякую. Чи метод Ньютона такий самий, як у Ньютона Рафсона? Або це щось інше?
Віктор

2
Так, я вважаю, що вони посилаються на ту саму концепцію.
Меттью Друрі
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.