Яка різниця між найменшими квадратами та лінійною регресією? Це одне й те саме?
Яка різниця між найменшими квадратами та лінійною регресією? Це одне й те саме?
Відповіді:
Лінійна регресія передбачає лінійну залежність між незалежною та залежною змінною. Це не говорить вам про те, як підійде модель. Найменше квадратне облягання - просто одна з можливостей. Інші методи навчання лінійної моделі - у коментарі.
Нелінійні найменші квадрати поширені ( https://en.wikipedia.org/wiki/Non-linear_least_squares ). Наприклад, популярний алгоритм Левенберга – Маркарда вирішує щось на кшталт:
Це оптимізація найменших квадратів, але модель не є лінійною.
Вони не одне і те ж .
На додаток до правильної відповіді @Student T, я хочу підкреслити, що найменші квадрати є функцією потенційних втрат для проблеми оптимізації, тоді як лінійна регресія - проблема оптимізації.
З огляду на певний набір даних, лінійна регресія використовується для пошуку найкращої можливої лінійної функції, яка пояснює зв’язок між змінними.
У цьому випадку "найкращий" можливий визначається функцією втрат, порівнюючи передбачувані значення лінійної функції з фактичними значеннями в наборі даних. Найменші квадрати - це можлива функція втрат.
Стаття з вікіпедії про найменші квадрати також показує зображення праворуч, на яких зображено використання найменших квадратів для інших проблем, ніж лінійна регресія, наприклад:
Наведений нижче текст статті у Вікіпедії показує кілька різних функцій поліномів, встановлених на наборі даних, використовуючи найменші квадрати. Лише одна з них лінійна (поліном 1). Це взято із статті німецької вікіпедії до теми.