Конволюційні нейронні мережі (CNN) - це нейронні мережі з архітектурними обмеженнями для зменшення обчислювальної складності та забезпечення трансляційної інваріантності (мережа інтерпретує вхідні шаблони однаково, незалежно від перекладу - з точки зору розпізнавання зображень: банан - це банан незалежно від того, де він знаходиться зображення). Конволюційні нейронні мережі мають три важливі архітектурні особливості.
Локальне з'єднання: Нейрони в одному шарі з'єднані лише з нейронами в наступному шарі, що є просторово близькими до них. Ця конструкція обрізає переважну більшість зв'язків між послідовними шарами, але зберігає ті, що містять найкориснішу інформацію. Тут припущення полягає в тому, що вхідні дані мають просторове значення, або на прикладі комп'ютерного зору зв'язок між двома віддаленими пікселями, ймовірно, менш значущий, ніж два близьких сусіда.
Спільні ваги: Це концепція, яка робить CNN "конволюційними". Примушуючи нейрони одного шару ділити ваги, прямий прохід (подача даних через мережу) стає еквівалентом перетворення фільтра над зображенням для отримання нового зображення. Навчання CNN потім стає завданням вивчення фільтрів (вирішення, які функції слід шукати в даних.)
Об'єднання та ReLU: CNN мають дві нелінійності: об'єднання шарів та функції ReLU. Шари об'єднання розглядають блок вхідних даних і просто передають максимальне значення. Це зменшує розмір виводу та не потребує додаткових параметрів для вивчення, тому об'єднання шарів часто використовується для регулювання розміру мережі та утримання системи нижче обчислювальної межі. Функція ReLU приймає один вхід, x, і повертає максимум {0, x}. ReLU(x) = argmax(x, 0)
. Це вводить подібний ефект до tanh (x) або sigmoid (x), як нелінійності для збільшення виразної сили моделі.
Подальше читання
Як згадується ще одна відповідь, курс Стенфорда CS 231n висвітлює це детально. Перегляньте цей письмовий посібник та цю лекцію для отримання додаткової інформації. Повідомлення в блогах, як ця, і ця , також дуже корисні.
Якщо вам все ще цікаво, чому у CNN є така структура, яку вони роблять, я пропоную прочитати документ, який їх представив, хоча це досить тривалий час, і, можливо, перевірити цю дискусію між Ян Лекуном та Крістофером Меннігом щодо вроджених пріорів (припущення, які ми робимо, коли ми проектуємо архітектуру моделі).