Запитання з тегом «conv-neural-network»

Конволюційні нейронні мережі - це тип нейронної мережі, в якому існує лише підмножина можливих зв'язків між шарами для створення перекриваються областей. Їх зазвичай використовують для наочних завдань.

2
Чи є математичні причини згортання в нейронних мережах поза доцільністю?
У конволюційних нейронних мережах (CNN) матриця ваг на кожному кроці отримує свої рядки та стовпці, перевернуті, щоб отримати матрицю ядра, перш ніж приступити до згортання. Про це пояснюється у серії відео Уго Ларошель тут : Обчислення прихованих карт буде відповідати виконанню дискретної згортки з каналом з попереднього шару, використовуючи матрицю …


2
Ініціалізація ваги CNN xavier
У деяких навчальних посібниках я виявив, що ініціалізація ваги "Xavier" (стаття: Розуміння труднощів дресирування глибоких нейронних мереж ) є ефективним способом ініціалізації ваг нейронних мереж. Для повністю пов’язаних шарів у цих підручниках було правило: Var(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W) = \frac{2}{n_{in} + n_{out}}, \quad \text{simpler alternative:} \quad Var(W) = \frac{1}{n_{in}} де - …

3
Універсальна теорема наближення для згорткових мереж
Універсальна теорема наближення є досить відомим результатом для нейронних мереж, в основному вказуючи, що за деякими припущеннями функція може бути рівномірно наближена нейронною мережею в будь-якій точності. Чи є якийсь аналогічний результат, який стосується конволюційних нейронних мереж?


2
Модель Google Inception: чому існує кілька софтмакс?
Топологію моделі Google Inception можна знайти тут: Google Inception Netowrk Я помітив, що в цій моделі є 3 softmax-шару (№ 154, № 152, # 145), і 2 з них є якоюсь швидкою втечею цієї моделі. З того, що мені відомо, шар softmax призначений для остаточного виведення, то чому їх так …

3
Чи може нейромережа (наприклад, згорткова нейронна мережа) мати негативні ваги?
Чи можливі негативні ваги (після достатньої кількості епох) для глибоких звивистих нейронних мереж, коли ми використовуємо ReLU для всіх шарів активації?

5
Чи є наочний інструмент для проектування та застосування нейронних мереж / глибокого навчання? [зачинено]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 10 місяців тому . Я знаю, що існує багато бібліотек для машинного навчання та глибокого навчання, таких як caffe, Theano, TensorFlow, keras, ... Але мені здається, …

4
У CNN, чи збільшити вибір та перенести згортку однаково?
І терміни "upsampling" і "transpose convolution" вживаються, коли ви робите "деконволюцію" (<- не гарний термін, але дозвольте мені тут його використовувати). Спочатку я думав, що вони означають те саме, але мені здається, що вони різні, після того, як я прочитав ці статті. хто-небудь може уточнити? Транспоніруйте згортання : схоже, ми …

1
Що саме являє собою блок залишкового навчання в контексті глибоких залишкових мереж у глибокому навчанні?
Я читав статтю « Глибоке залишкове навчання для розпізнавання зображень» і у мене виникли труднощі з розумінням на 100%, що означає залишковий блок обчислювально. Читаючи їхній документ, вони мають малюнок 2: що ілюструє, яким повинен бути Залишковий блок. Чи обчислення залишкового блоку просто те саме, що: y =σ( Ш2σ( Ш1x …

2
Як працює операція DepthConcat у програмі "Поглиблення із згортками"?
Читання Заглиблюючись глибше із згортками , я натрапив на шар DepthConcat , будівельний блок запропонованих початкових модулів , який поєднує вихід декількох тензорів різної величини. Автори називають це "Фільтр конкатенації". Здається, це є реалізацією для Torch , але я не дуже розумію, що це робить. Чи може хтось пояснити простими …

2
Вибір розміру фільтра, кроку тощо у CNN?
Я дивився лекції CS231N зі Стенфорда і намагаюся обернути голову навколо деяких питань архітектури CNN. Що я намагаюся зрозуміти, чи є якісь загальні вказівки щодо вибору розміру фільтра згортки та такі речі, як ходу, чи це більше мистецтво, ніж наука? Як я розумію, об'єднання існує, головним чином, для того, щоб …

3
Нелінійність перед кінцевим шаром Softmax у згортковій нейронній мережі
Я вивчаю і намагаюся реалізувати звивисті нейронні мережі, але, мабуть, це питання стосується взагалі багатошарових перцептронів. Вихідні нейрони в моїй мережі представляють активацію кожного класу: найактивніший нейрон відповідає передбачуваному класу для заданого входу. Щоб розглянути можливість перехресної ентропії на навчання, я додаю шар softmax в кінці мережі, так що значення …

5
Яку функцію втрати слід використовувати для двійкового виявлення при виявленні обличчя / без обличчя в CNN?
Я хочу використовувати глибоке навчання для тренування бінарного виявлення обличчя / без обличчя, яку втрату я повинен використовувати, я думаю, що це SigmoidCrossEntropyLoss або Hinge-loss . Це правильно, але мені також цікаво, чи варто використовувати софтмакс, але лише з двома класами?

2
Чому CNN укладаються з шарами FC?
З мого розуміння, CNN складаються з двох частин. Перша частина (шари conv / pool), яка виконує вилучення функції, і друга частина (шари fc), яка робить класифікацію за ознаками. Оскільки повноз'єднані нейронні мережі не є найкращими класифікаторами (тобто вони отримують більшу ефективність від SVM та RFs більшу частину часу), чому CNN …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.