Запитання з тегом «conv-neural-network»

Конволюційні нейронні мережі - це тип нейронної мережі, в якому існує лише підмножина можливих зв'язків між шарами для створення перекриваються областей. Їх зазвичай використовують для наочних завдань.

4
Яка різниця між згортковими нейронними мережами, обмеженими машинами Больцмана і автокодерами?
Останнім часом я читав про глибоке навчання, і мене бентежить термін (або, скажімо, технології). Яка різниця між Конволюційні нейронні мережі (CNN), Машини з обмеженим набором Больцмана (RBM) та Авто-кодери?

6
Що означає згортання 1x1 у нейронній мережі?
Зараз я займаюся навчальним посібником з глибокого навчання Udacity. У уроці 3 вони говорять про згортку 1x1. Цей звіт 1х1 використовується в Inception модулі Google. У мене виникають проблеми з розумінням того, що таке згортка 1x1. Я також бачив цю посаду Янна Лекуна. Може хтось люб’язно мені це пояснить?

4
Чому нейронні мережі стають все глибшими, але не ширшими?
Останніми роками конволюційні нейронні мережі (або, можливо, глибокі нейронні мережі взагалі) стають все глибшими і глибшими: сучасні мережі переходять від 7 шарів ( AlexNet ) до 1000 шарів ( Залишкові мережі) в просторі 4 років. Причина підвищення продуктивності з більш глибокої мережі полягає в тому, що можна вивчити більш складну …

2
Що таке глобальний максимальний шар пулу та яка його перевага перед maxpooling шаром?
Чи може хтось пояснити, що таке глобальний макс-пул об'єднання і чому і коли ми використовуємо це для тренування нейронної мережі. Чи мають вони перевагу перед звичайним максимумом шару пулу?

2
Чому конволюційні нейронні мережі не використовують класифікаційний векторний апарат підтримки?
В останні роки конволюційні нейронні мережі (CNN) стали найсучаснішим для розпізнавання об'єктів в комп'ютерному зорі. Зазвичай CNN складається з декількох згорткових шарів, за якими слідують два повністю з'єднані шари. Інтуїція, що стоїть за цим, полягає в тому, що згорткові шари навчаються кращому представленню вхідних даних, а повністю пов'язані шари потім …

4
Як ядра застосовуються до карт функцій для створення інших карт функцій?
Я намагаюся зрозуміти складову частину згорткових нейронних мереж. Дивлячись на таку цифру: У мене немає проблем з розумінням першого шару згортки, де у нас є 4 різних ядра (розміром ), які ми переплітаємо з вхідним зображенням, щоб отримати 4 карти карт.k × kk×kk \times k Що я не розумію, це …

6
Важливість нормалізації локальної реакції в CNN
Я виявив, що Imagenet та інші великі CNN використовують локальні шари нормалізації відповіді. Однак я не можу знайти про них стільки інформації. Наскільки вони важливі і коли їх слід використовувати? З http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "Рівень нормалізації локальної відповіді виконує своєрідне" бічне гальмування "шляхом нормалізації над локальними вхідними регіонами. У режимі ACROSS_CHANNELS …

4
Що таке інваріантність перекладу в комп'ютерному зорі та конволюційній нейромережі?
У мене немає фону з комп’ютерним зором, але коли я читаю деякі статті та документи, пов'язані з обробкою зображень та конволюційними нейронними мережами, постійно стикаюся з терміном translation invariance, або translation invariant. Або я читаю багато, що забезпечує згортання translation invariance? !! що це означає? Я сам завжди перекладав це …


3
Чи додаються шари об'єднання до або після шарів, що випадають?
Я створюю конволюційну нейронну мережу (CNN), де у мене є згортковий шар, за яким слідує шар об'єднання, і я хочу застосувати випадання для зменшення перевитрати. У мене таке відчуття, що шар, що випадає, слід наносити після об'єднання шару, але я насправді не маю нічого, що би це створити. Де є …

3
Попередня підготовка в глибокій згорткової нейромережі?
Хтось бачив якусь літературу про попередню підготовку в глибокій згортковій нейронній мережі? Я бачив лише непідготовлену попередню підготовку в автоінкодерах або машинах з обмеженим набором болцманів.

2
Яке визначення "картки особливостей" (також "карти активації") у конволюційній нейронній мережі?
Фон вступу Всередині конвертної нейронної мережі ми зазвичай маємо загальну структуру / потік, яка виглядає так: вхідне зображення (тобто 2D вектор x) (1-й згортковий шар (Conv1) починається тут ...) включають набір фільтрів ( w1) вздовж двовимірного зображення (тобто виконайте z1 = w1*x + b1множення крапкового продукту), де z1є 3D, і …

1
CNN архітектури для регресії?
Я працював над проблемою регресії, де вводом є зображення, а мітка - це постійне значення між 80 і 350. Зображення містять деякі хімічні речовини після реакції. Колір, який виявляється, вказує на концентрацію іншого хімічного речовини, що залишився, і ось що виводить модель - концентрацію цієї хімічної речовини. Зображення можна обертати, …

2
Що означає термін насичення нелінійностей?
Я читав статтю ImageNet Classification з глибокими згортковими нейронними мережами, і в розділі 3 вони пояснювали архітектуру своєї конволюційної нейромережі. Вони пояснюють, як вони віддали перевагу використанню: ненасичуюча нелінійністьf(x)=max(0,x).f(x)=max(0,x).f(x) = max(0, x). бо швидше було тренуватися. У цій роботі вони, схоже, називають насичуючі нелінійності як більш традиційні функції, що використовуються …


Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.