Оскільки немає детальної і помітної відповіді, я постараюся.
Давайте спочатку розберемося, звідки береться мотивація для таких шарів: наприклад, згортковий автокодер. Ви можете використовувати згортковий автокодер для витягування зображень, одночасно навчаючи автокодер для реконструкції вихідного зображення. (Це метод без нагляду.)
Такий автокодер має дві частини: кодер, який витягує функції із зображення, та декодер, що реконструює вихідне зображення з цих функцій. Архітектура кодера і декодера зазвичай є дзеркальним відображенням.
У згортковому автокодері кодер працює з згортанням та об'єднанням шарів. Я припускаю, що ви знаєте, як це працює. Декодер намагається віддзеркалити кодер, але замість "зробити все меншим" він має на меті "зробити все більшим", щоб він відповідав оригінальному розміру зображення.
Протилежністю згорткових шарів є перекладені шари згортки (також відомі як деконволюція , але правильно математично кажучи, це щось інше). Вони працюють з фільтрами, ядрами, кроками так само, як шари згортки, але замість відображення, наприклад, 3x3 вхідних пікселів на 1 вихід, вони відображають від 1 вхідного пікселя до 3x3 пікселів. Звичайно, також зворотне розмноження працює дещо інакше.
Протилежність об'єднання шарів є Upsampling шари , які в їх чистому вигляді лише змінити розмір зображення (або копіювати піксель стільки раз , скільки це необхідно). Більш досконалою технікою є розкручування, яке відновлює maxpooling, запам'ятовуючи розташування максимумів у шарах maxpooling, а в шарах, що розгортаються, копіюють значення саме в це місце. Цитувати з цього ( https://arxiv.org/pdf/1311.2901v3.pdf ) документа:
У convnet операція об'єднання максимумів неперевернена, проте ми можемо отримати приблизну обернену, записуючи розташування максимумів у кожній області об'єднання в набір змінних комутаторів. У деконвентній операції розгортання цих перемикачів використовуються ці комутатори для розміщення реконструкцій із шару вище у відповідні місця, зберігаючи структуру подразника.
Для отримання додаткового технічного вкладу та контексту ознайомтеся з цим дійсно хорошим, наочним та глибоким поясненням: http://deeplearning.net/software/theano/tutorial/conv_arithmetic.html
Подивіться на https://www.quora.com/What-is-the-difference-bet between-Deconvolution-Upsampling-Unpooling- and-Convolutional-Sparse- Coding