Відповіді:
Вихід із згорткових шарів представляє особливості високого рівня в даних. Незважаючи на те, що цей результат можна згладити і з'єднати з вихідним шаром, додавання повністю пов'язаного шару є (як правило) дешевим способом вивчення нелінійних комбінацій цих особливостей.
По суті, згорткові шари забезпечують значущий, маломірний і дещо інваріантний простір функцій, і повністю пов'язаний шар вивчає (можливо, нелінійну) функцію в цьому просторі.
ПРИМІТКА. Перетворювати з шарів FC в шари Conv тривіально. Перетворення цих верхніх шарів FC в шари Conv може бути корисним, як описано на цій сторінці.
Я вважаю цю відповідь Аніл-Шарма на Quora корисною.
Ми можемо розділити всю мережу (для класифікації) на дві частини:
Вилучення особливостей : У звичайних алгоритмах класифікації, як SVM, ми використовували для отримання функцій з даних, щоб зробити класифікацію роботою. Скручені шари служать тій самій меті вилучення ознак. CNN фіксують краще представлення даних, отже, нам не потрібно займатися інженерною функцією.
Класифікація : Після вилучення функцій нам потрібно класифікувати дані в різні класи, це можна зробити за допомогою повністю підключеної (FC) нейронної мережі. Замість повністю з'єднаних шарів ми також можемо використовувати звичайний класифікатор типу SVM. Але ми, як правило, додаємо шари FC, щоб зробити модель від кінця до кінця відстежуваною.