Ви згадуєте лінійну регресію. Це пов'язано з логістичною регресією , яка має аналогічний алгоритм швидкої оптимізації. Якщо у вас є межі на цільові значення, наприклад, з проблемою класифікації, ви можете розглядати логістичну регресію як узагальнення лінійної регресії.
Нейронні мережі суворо більш загальні, ніж логістична регресія на вихідних входах, оскільки це відповідає мережі пропускного рівня (з з'єднаннями, що безпосередньо з'єднують входи з виходами) з прихованими вузлами.0
Коли ви додаєте такі функції, як , це схоже на вибір ваг для кількох прихованих вузлів в одному прихованому шарі. Не існує точно відповідності, оскільки для моделювання такої функції, як з сигмоїдами, може знадобитися більше одного прихованого нейрона. Коли ви тренуєте нейронну мережу, ви дозволяєте їй знаходити власні приховані ваги, які можуть бути кращими. Це також може зайняти більше часу, і це може бути непослідовно. Ви можете почати з наближення до логістичної регресії з додатковими можливостями і повільно тренувати вхідні та приховані ваги, і це повинно бути краще, ніж логістична регресія з додатковими можливостями. Залежно від проблеми час навчання може бути незначним або непомірним.x31−1x3
Однією проміжною стратегією є вибір великої кількості випадкових вузлів, подібних до того, що відбувається при ініціалізації нейронної мережі, та фіксації ваг, введених у приховані. Оптимізація ваг * -до виходу залишається лінійною. Це називається екстремальною машиною навчання . Це працює як мінімум так само, як і оригінальна логістична регресія.