Запитання з тегом «convnet»

Питання стосовно "Конволюційних нейронних мереж" (CNN)

10
Що таке деконволюційні шари?
Нещодавно я прочитав « Цілком конволюційні мережі для семантичної сегментації » Джонатана Лонга, Евана Шелгамера, Тревора Даррелла. Я не розумію, що роблять "деконволюційні шари" / як вони працюють. Відповідна частина - 3.3. Підвищення розміру - це згорнута назад реакція Інший спосіб підключення грубих виходів до щільних пікселів - інтерполяція. Наприклад, …

4
Як 1x1 згортки збігаються з повністю пов'язаним шаром?
Нещодавно я читав коментар Ян Лекунса про 1x1 згортки : У конволюційних мережах немає такого поняття, як "повністю пов'язані шари". Існують лише шари згортки з 1x1 ядрами згортки та повною таблицею з'єднань. Це надто рідко зрозумілий факт, що ConvNets не потребує введення фіксованого розміру. Ви можете навчити їх на входах, …

2
Як підготувати / збільшити зображення для нейронної мережі?
Я хотів би використовувати нейронну мережу для класифікації зображень. Почну з попередньо підготовленого CaffeNet і навчу його для мого застосування. Як слід підготувати вхідні зображення? У цьому випадку всі зображення однакового об’єкта, але з варіаціями (подумайте: контроль якості). Вони знаходяться в дещо різних масштабах / дозволах / відстанях / умовах …

4
Як працюють наступні шари згортки?
Це питання зводиться до того, як саме працюють шари згортки . Припустимо, у мене є відтінків сірого. Отже, зображення має один канал. У першому шарі я кратну кратну згортку з фільтрами та накладками. Тоді у мене є ще один шар згортки з згортками та фільтрами. Скільки функціональних карт у мене …

6
Чому працюють конволюційні нейронні мережі?
Я часто чув людей, які говорять про те, чому конволюційні нейронні мережі ще недостатньо вивчені. Чи відомо, чому нейромережі, що розвиваються, завжди отримують все більш досконалі функції, коли ми піднімаємося по шарах? Що змусило їх створити такий набір функцій і чи це би було справедливо і для інших типів глибоких …

1
Чи є правила вибору розміру міні-партії?
При тренуванні нейронних мереж один гіперпараметр має розмір міні-партії. Поширені варіанти - 32, 64 та 128 елементів на міні-партію. Чи є якісь правила / настанови, якою має бути міні-партія? Будь-які публікації, які досліджують вплив на навчання?

2
Що таке / чи використовуються фільтри за замовчуванням, які використовує Keras Convolution2d ()?
Я досить новачок у нейронних мережах, але розумію лінійну алгебру і математику згортки досить пристойно. Я намагаюся розібратися в прикладі коду, який я знаходжу в різних місцях мережі для тренування конвертної NN Keras з даними MNIST для розпізнавання цифр. Моє сподівання було б, що коли я створюю згортковий шар, мені …
18 convnet  keras 

4
Чим відрізняється Inception v2 від Inception v3?
У статті, що заглиблюється глибше, згортається опис GoogleNet, який містить оригінальні модулі створення: Зміна початкової версії v2 полягала в тому, що вони замінили згортки 5x5 двома послідовними згортками 3x3 та застосували об'єднання: Чим відрізняється Inception v2 від Inception v3?

5
збільшують теплову карту для новонароджених
Я створюю corr()df з оригінального df. corr()ДФ вийшов 70 X 70 і неможливо уявити собі Heatmap ... sns.heatmap(df). Якщо я спробую відобразити corr = df.corr()таблицю, таблиця не відповідає екрану, і я бачу всі кореляції. Це спосіб або надрукувати весь, dfнезалежно від його розміру, або контролювати розмір теплової карти?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

5
Переобладнання конвертної нейронної мережі. Випадання не допомагає
Я трохи граю з конвенцями. Зокрема, я використовую набір даних кангл-котів проти собак, який складається з 25000 зображень, позначених як кішка або собака (12500 у кожному). Мені вдалося досягти близько 85% точності класифікації на моєму тестовому наборі, проте я поставив мету досягти 90% точності. Моя головна проблема - це надмірне …

1
зворотне розповсюдження в CNN
У мене є наступні CNN: Почну з вхідного зображення розміром 5х5 Тоді я застосовую згортку за допомогою ядра 2x2 і stride = 1, що створює карту характеристик розміром 4x4. Тоді я застосовую 2х2 макс-пулінг з кроком = 2, що зменшує мапу функції до розміру 2х2. Тоді я застосовую логістичну сигмоїду. …

3
Чи є клас особи в ImageNet? Чи є заняття, пов’язані з людиною?
Якщо я перегляну одне з багатьох джерел для класів Imagenet в Інтернеті, я не можу знайти жодного класу, пов’язаного з людьми (і ні, жнивець - це не той, хто збирає урожай, але це те, що я знав, як тато довгі ноги, такий собі павук :-). Як це можливо? Я б, …

1
Поширення назад через максимум шарів об'єднання
У мене є невелике підпитання до цього питання . Я розумію, що при розповсюдженні назад через максимальний шар об'єднання градієнт повертається назад таким чином, що нейрон в попередньому шарі, який був обраний як max, отримує весь градієнт. У чому я не впевнений на 100% - це те, як градієнт у …


3
Чому згортки завжди використовують непарні числа як filter_size
Якщо ми розглянемо 90-99% паперів, опублікованих за допомогою CNN (ConvNet). Переважна більшість із них використовує непарні номери фільтрів : {1, 3, 5, 7} для найбільш використовуваних. Ця ситуація може призвести до певної проблеми: За таких розмірів фільтрів, як правило, операція згортання не є ідеальною, якщо прокладка 2 (звичайна прокладка), а …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.