Насправді існує велика істотна різниця, яка пов'язана з технічними відмінностями, про які ви згадали. Логістична регресія моделює функцію середнього розподілу Бернуллі як лінійне рівняння (середнє значення дорівнює p ймовірності події Бернуллі). Використовуючи посилання logit як функцію середнього ( p ), логарифм коефіцієнтів (log-odds) можна вивести аналітично і використовувати як відповідь на так звану узагальнену лінійну модель. Оцінка параметрів для цього GLM - це статистичний процес, який дає р-значення та довірчі інтервали для модельних параметрів. Крім прогнозування, це дозволяє інтерпретувати модель причинно-наслідкового висновку. Це те, чого ви не можете досягти за допомогою лінійного Perceptron.
Perceptron - це зворотний інженерний процес логістичної регресії: Замість того, щоб прийняти logit y, він бере функцію оберненої logit (логістичної) wx , і не використовує імовірнісних припущень ні для моделі, ні для оцінки її параметрів. Інтернет-навчання дасть вам точно такі ж оцінки для моделей ваг / параметрів, але ви не зможете інтерпретувати їх причинно-наслідковим висновком через відсутність p-значень, довірчих інтервалів та ну базової моделі ймовірностей.
Коротка, логістична регресія - короткий оповідання - це ГЛМ, яка може виконувати передбачення та умовиводи, тоді як лінійний рецептор може досягати лише прогнозування (у такому випадку він виконуватиметься так само, як логістична регресія). Різниця між ними - також принципова різниця між статистичним моделюванням та машинним навчанням.