Коротше кажучи, немає нічого особливого в кількості вимірів для згортки. Будь-яка розмірність згортки може бути розглянута, якби вона відповідала проблемі.
Кількість розмірів є властивістю вирішуваної проблеми. Наприклад, 1D для аудіосигналів, 2D для зображень, 3D для фільмів. . .
Коротко ігноруючи кількість розмірів, наступні можна вважати сильними складових конвертної нейронної мережі (CNN) порівняно з повністю пов'язаними моделями при роботі з певними типами даних:
Використання загальних ваг для кожного місця, що обробляє процеси згортання, істотно зменшує кількість параметрів, які потрібно вивчити, порівняно з тими ж даними, що обробляються через повністю підключену мережу.
Спільні ваги - це форма регуляризації.
Структура згорткової моделі робить вагомі припущення щодо місцевих зв’язків у даних, які, якщо це правда, добре підходять до проблеми.
3.1 Місцеві зразки забезпечують хороші прогнозні дані (та / або можуть бути корисно поєднані в більш складні прогнозні моделі у вищих шарах)
3.2 Типи візерунків, знайдених у даних, можна знайти в декількох місцях. Пошук одного і того ж шаблону в іншому наборі точок даних є доцільним.
Ці властивості CNN не залежать від кількості вимірів. Одновимірні CNN працюють з візерунками в одному вимірі і, як правило, корисні при аналізі сигналів за сигналами фіксованої довжини. Наприклад, вони добре працюють для аналізу звукових сигналів. Також для певної обробки природних мов, хоча повторювані нейронні мережі, що дозволяють мати різну довжину послідовностей, можуть бути краще підходять до них, особливо такі, які мають розташування воріт пам'яті, такі як LSTM або GRU. Тим не менш, CNN може бути простішим в управлінні, і ви можете просто прокладати вхід для фіксованої довжини.