Насправді я здогадуюсь питання трохи широке! У всякому разі.
Розуміння мереж згортання
Про що дізнається в ConvNets
намагається мінімізувати функцію витрат, щоб правильно класифікувати вхідні дані в завданнях класифікації. Усі фільтри, що змінюються та засвоюють параметри, призначені для досягнення зазначеної мети.
Вивчені функції на різних шарах
Вони намагаються знизити вартість, вивчаючи такі низькі, іноді безглузді, такі функції, як горизонтальні та вертикальні лінії у своїх перших шарах, а потім складають їх, щоб в останніх шарах скласти абстрактні форми, які часто мають значення. Для ілюстрації цієї рис. 1, який був використаний в тут , можна вважати. Вхід - це шина, і пояс показує активацію після проходження входу через різні фільтри першого шару. Як видно, червона рамка, яка є активацією фільтра, про які були засвоєні його параметри, була активована для відносно горизонтальних країв. Синя рамка активована для відносно вертикальних країв. Можливо, щоConvNets
вивчіть невідомі фільтри, які корисні, і ми, як, наприклад, лікарі з комп’ютерного зору, не виявили, що вони можуть бути корисними. Найкраща частина цих мереж полягає в тому, що вони намагаються знайти відповідні фільтри самостійно і не використовують наші обмежені виявлені фільтри. Вони вивчають фільтри, щоб зменшити суму функції. Як згадувалося, ці фільтри не обов'язково відомі.
У більш глибоких шарах функції, отримані в попередніх шарах, поєднуються і складають форми, які часто мають значення. У цій роботі було обговорено, що ці шари можуть мати активні для нас значення, або поняття, які мають для нас значення як людину, можуть поширюватися серед інших активацій. На рис. 2 на зеленій рамці показані активатини фільтра в п'ятому шарі aConvNet
. Цей фільтр піклується про обличчя. Припустимо, рудий дбає про волосся. Вони мають значення. Як видно, є й інші активації, активовані прямо у положенні типових граней на вході, зелена рамка - одна з них; Синій кадр - ще один приклад цього. Відповідно, абстрагування фігур можна дізнатися за допомогою фільтра або численних фільтрів. Іншими словами, кожне поняття, як обличчя та його компоненти, можна розподілити між фільтрами. У випадках, коли поняття розподілені між різними шарами, якщо хтось дивиться на кожен з них, вони можуть бути складними. Інформація поширюється серед них і для розуміння цієї інформації всі ці фільтри та їх активації потрібно враховувати, хоча вони можуть здаватися настільки складними.
CNNs
взагалі не слід розглядати як чорні скриньки. Zeiler та всі в цьому дивовижному документі обговорили, що розробка кращих моделей зводиться до спроб та помилок, якщо ви не розумієте, що робиться всередині цих мереж. У цьому документі намагаються візуалізувати карти функцій у ConvNets
.
Здатність обробляти різні перетворення для узагальнення
ConvNets
використовувати pooling
шари не тільки для зменшення кількості параметрів, але і для того, щоб бути нечутливим до точного положення кожної функції. Також використання їх дозволяє шарам вивчати різні особливості, а значить, перші шари вивчають прості функції низького рівня, такі як краї або дуги, а більш глибокі шари вивчають складніші риси, такі як очі або брови. Max Pooling
наприклад, намагається дослідити, чи існує особлива особливість у спеціальному регіоні чи ні. Ідея pooling
шарів настільки корисна, але вона просто здатна впоратися з переходом серед інших перетворень. Хоча фільтри в різних шарах намагаються знайти різні візерунки, наприклад, повернене обличчя вивчається за допомогою різних шарів, ніж звичайне обличчя,CNNs
там власні не мають жодного шару для обробки інших перетворень. Для ілюстрації цього припустімо, що ви хочете вивчити прості грані без будь-якого обертання з мінімальною сіткою. У цьому випадку ваша модель може зробити це ідеально. припустимо, що вас просять вивчити всі види граней з довільним обертанням обличчя. У цьому випадку ваша модель повинна бути значно більшою, ніж попередня вивчена сітка. Причина в тому, що для введення цих обертів на вході повинні бути фільтри. На жаль, це не всі трансформації. Ваш вклад також може бути перекручений. Ці випадки розлютили Макса Ядерберга та інших . Вони склали цей документ, щоб вирішити ці проблеми, щоб вгамувати наш гнів як їхній.
Конволюційні нейронні мережі працюють
Нарешті, після посилань на ці пункти, вони працюють, тому що намагаються знайти шаблони у вхідних даних. Вони складають їх, щоб скласти абстрактні поняття там, де є шари згортки. Вони намагаються з'ясувати, чи є вхідні дані кожне з цих понять, чи немає там щільних шарів, щоб з'ясувати, до якого класу належать вхідні дані.
Я додаю кілька посилань, які корисні: