Чим відрізняється Inception v2 від Inception v3?


18

У статті, що заглиблюється глибше, згортається опис GoogleNet, який містить оригінальні модулі створення:

введіть тут опис зображення

Зміна початкової версії v2 полягала в тому, що вони замінили згортки 5x5 двома послідовними згортками 3x3 та застосували об'єднання:

введіть тут опис зображення

Чим відрізняється Inception v2 від Inception v3?


Це просто пакетна нормалізація? Або Inception v2 вже має пакетну нормалізацію?
Мартін Тома

github.com/SKKSaikia/CNN-GoogLeNet Це сховище містить усі версії GoogLeNet та їх різницю. Спробувати.
Amartya Ranjan Saikia

Відповіді:


22

У статті Batch Normalization , Sergey et al, 2015. запропонував Inception-v1 архітектуру , яка представляє собою варіант з GoogleNet в статті заглиблюючись з звивинами , а тим часом вони ввели Batch Нормалізацію до Inception (BN-Inception).

Основна відмінність мережі, описаної в (Szegedy et al., 2014), полягає в тому, що згорткові шари 5x5 замінюються двома послідовними шарами 3x3 згортки з об'ємом до 128 фільтрів.

І в роботі « Переосмислення архітектури початків для комп'ютерного зору» автори запропонували Inception-v2 та Inception-v3.

У Inception-v2 вони ввели факторизацію (факторизацію згортків на менші згортки) та деяку незначну зміну в Inception-v1.

Зауважимо, що ми поділили традиційну згортку 7x7 на три згортання 3x3

Що стосується Inception-v3 , то це варіант Inception-v2, який додає BN-допоміжний.

BN допоміжний посилається на версію, в якій повністю пов'язаний шар допоміжного класифікатора також нормалізується, а не просто згортки. Ми розглядаємо модель [Inception-v2 + BN допоміжна] як Inception-v3.


3

поруч із тим, що згадував даолікер

inception v2 використовував роздільну згортку як перший шар глибини 64

цитата з паперу

У нашій моделі було використано відокремлену згортку з множником глибини 8 на першому згортковому шарі. Це зменшує обчислювальні витрати, збільшуючи споживання пам'яті під час тренувань.

чому це важливо? тому що він був відкинутий у v3 та v4 та відновлювальному відновленні, але знову був запроваджений та сильно використаний у мобільній мережі пізніше.


1

Відповідь можна знайти в документі «Поглиблення глибше» з документом згортки: https://arxiv.org/pdf/1512.00567v3.pdf

Перевірте таблицю 3. Початок v2 - це архітектура, описана в Поглибленні глибше за допомогою згорткового паперу. Inception v3 - це та сама архітектура (незначні зміни) з різним алгоритмом тренувань (RMSprop, регуляризатор згладжування міток, додавання допоміжної голови з пакетною нормою для поліпшення навчання тощо).


1

Насправді, відповіді вище здаються помилковими. Дійсно, це було велике безладдя з називанням. Однак, схоже, це було зафіксовано в роботі, яка вводить Inception-v4 (див.: "Inception-v4, Inception-ResNet та вплив залишкових зв'язків на навчання"):

Глибока конволюційна архітектура Inception була введена як GoogLeNet в (Szegedy et al. 2015a), тут названа Inception-v1. Пізніше архітектура Inception була вдосконалена різними способами, спочатку впровадженням пакетної нормалізації (Ioffe та Szegedy 2015) (Inception-v2). Пізніше додаткові ідеї факторизації в третій ітерації (Szegedy et al. 2015b), які в цьому звіті будуть називатися Inception-v3.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.