Використовуючи функції логістичної активації, правда, що функція, що стосується входів кожного блоку до його виходу, така сама, як і для логістичної регресії. Але це насправді не те саме, що кожен блок, що здійснює логістичну регресію. Різниця полягає в тому, що при логістичній регресії ваги та ухили вибираються такими, що вихід найкраще відповідає заданим цільовим значенням (використовуючи втрату журналу / перехресної ентропії). На противагу цьому, приховані одиниці в нейронній сітці надсилають свої вихідні дані на одиниці нижче. Немає цільового виводу для відповідності окремих прихованих одиниць. Швидше за все, ваги та ухили вибираються для мінімізації деякої об'єктивної функції, що залежить від кінцевого виходу мережі.
Замість того, щоб здійснювати логістичну регресію, може бути більше сенсу вважати кожну приховану одиницю як обчислення координати в деякому просторі функцій. З цього погляду мета прихованого шару полягає в перетворенні його входу - вхідний вектор відображається на вектор прихованих активацій шару. Ви можете подумати про це як відображення вводу в простір з розмірами, що відповідають кожному прихованому блоку.
Вихідний шар часто можна розглядати як стандартний алгоритм навчання, який працює в цьому просторі функцій. Наприклад, у класифікаційному завданні використання одиниці логістичного виведення з поперечною втратою ентропії еквівалентно виконанню логістичної регресії в просторі функцій (або багаточленної логістичної регресії, якщо використовуються виводи програмного забезпечення). У регресійній задачі використання лінійного виводу з похибкою у квадраті рівносильно виконанню найменших квадратів лінійної регресії у просторі функцій.
Навчання мережі означає вивчення функції відображення простору функцій та класифікації / регресії (у просторі функцій), які разом дають найкращі показники. Якщо припустити нелінійні приховані одиниці, збільшення ширини прихованого шару або укладання декількох прихованих шарів дозволяє отримати більш складні просторові відображення, тим самим дозволяючи підходити більш складні функції.