Запитання з тегом «conv-neural-network»

Конволюційні нейронні мережі - це тип нейронної мережі, в якому існує лише підмножина можливих зв'язків між шарами для створення перекриваються областей. Їх зазвичай використовують для наочних завдань.

1
Що пояснює приклад того, чому нормалізацію партії потрібно робити з обережністю?
Я читав документ про нормалізацію партії [1], і в ній був один розділ, де йдеться про приклад, намагаючись показати, чому нормалізацію потрібно робити обережно. Я, чесно кажучи, не можу зрозуміти, як працює приклад, і мені справді дуже цікаво зрозуміти, що вони створюють папір, наскільки я можу. Спочатку дозвольте це процитувати …

1
Що таке втрата ваги?
Я починаю з глибокого навчання, і у мене є питання, відповіді якого я не зміг знайти, можливо, я не шукав належним чином. Я бачив цю відповідь , але все ще не ясно, що таке втрата ваги і як це пов'язано з функцією втрати.

2
Як пов’язані фільтри та карти активації в конволюційних нейронних мережах?
Як карти активації на даному шарі підключені до фільтрів для цього шару? Я не запитую про те, як зробити згорнуту операцію між фільтром і картою активації, я запитую про тип підключення цих двох. Наприклад, скажіть, що ви хотіли зробити повний зв’язок. У вас є f кількість фільтрів і n кількість …

1
Навчання нейронної мережі згортки
Зараз я працюю над програмним забезпеченням для розпізнавання облич, яке використовує нейронні мережі згортки для розпізнавання облич. Спираючись на свої читання, я зрозумів, що звивиста нейронна мережа має загальну вагу, щоб заощадити час під час тренувань. Але як адаптувати зворотне розповсюдження, щоб його можна було використовувати в нейромережі згортки. Для …

2
Чи не було б кілька фільтрів у згортковому шарі вивчити один і той же параметр під час тренування?
Виходячи з того, що я дізнався, ми використовуємо кілька фільтрів у конвеєрному шарі CNN для вивчення різних детекторів функцій. Але оскільки ці фільтри застосовуються аналогічно (тобто ковзають і примножуються до областей введення), чи не просто вони засвоїли б однакові параметри під час тренування? Отже, використання декількох фільтрів буде зайвим?

3
CIFAR-10 Не може перевищити 60% точності, Керас із Tensorflow backkend [закрито]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закритий минулого року . Навчання після 15 епох на наборі даних CIFAR-10, схоже, втрати валідації більше не зменшуються, припадаючи на 1,4 (з 60% точністю перевірки). Я перемістив …

2
Чи може згорткова нейронна мережа приймати як вхідні зображення різних розмірів?
Я працюю в мережі згортки для розпізнавання зображень, і мені було цікаво, чи можу я вводити зображення різного розміру (хоча не дуже різного). Про цей проект: https://github.com/harvardnlp/im2markup Вони кажуть: and group images of similar sizes to facilitate batching Тож навіть після попередньої обробки зображення все ще мають різні розміри, що …

4
різниця між нейронною мережею та глибоким навчанням
З точки зору різниці між нейронною мережею та глибоким навчанням, ми можемо перелічити декілька предметів, таких як включено більше шарів, масивний набір даних, потужне комп'ютерне обладнання, щоб зробити навчання складною моделлю можливою. Окрім них, чи є більш детальне пояснення щодо різниці між NN та DL?

1
Чи нейронні мережі зазвичай потребують певного часу, щоб "піднятися" під час тренувань?
Я намагаюся навчити глибоку нейронну мережу для класифікації, використовуючи зворотне поширення. Зокрема, я використовую звивисту нейронну мережу для класифікації зображень, використовуючи бібліотеку потоків тензорів. Під час тренувань я відчуваю якусь дивну поведінку, і мені просто цікаво, чи це типово, чи я можу робити щось не так. Отже, моя конволюційна нейронна …

1
Як визначити кількість згорткових операторів у CNN?
У завданні комп’ютерного зору, такому як класифікація об'єктів, за допомогою Convolutional Neural Networks (CNN), мережа забезпечує привабливу продуктивність. Але я не впевнений, як налаштувати параметри в згорткових шарах. Наприклад, зображення сірого масштабу ( 480x480), перший згортковий шар може використовувати конволюційний оператор типу 11x11x10, де число 10 означає кількість згорткових операторів. …

2
WaveNet насправді не є розширеною згорткою, чи не так?
В останній роботі WaveNet автори посилаються на свою модель як зі складеними шарами розширених згортків. Вони також створюють наступні діаграми, пояснюючи різницю між "регулярними" згортками та розширеними згортками. Регулярні звивини виглядають так: Це згортання з розміром фільтра 2 та кроком 1, повторюваним у 4 шари. Потім вони показують архітектуру, використану …

3
Функція втрати для смислової сегментації
Вибачає за нецільове використання технічних термінів. Я працюю над проектом семантичної сегментації за допомогою конволюційних нейронних мереж (CNN); намагаючись реалізувати архітектуру типу Encoder-Decoder, тому вихід має той же розмір, що і вхідний. Як ви проектуєте етикетки? Яку функцію втрат слід застосувати? Особливо в умовах важкої нерівноваги класу (але співвідношення між …

1
Скільки даних для глибокого навчання?
Я дізнаюся про глибоке навчання (зокрема, CNN), а також про те, як зазвичай вимагає дуже багато даних для запобігання надмірного розміщення. Однак мені також сказали, що чим більша ємність / більше параметрів має модель, тим більше даних потрібно для запобігання надмірного розміщення. Тому моє запитання: чому ви можете не просто …

1
Яка модель глибокого навчання може класифікувати категорії, які не є взаємовиключними
Приклади: у мене є речення в описі посади: "Старший інженер Java у Великобританії". Я хочу використовувати модель глибокого навчання, щоб передбачити її як 2 категорії: English і IT jobs. Якщо я використовую традиційну модель класифікації, вона може передбачити лише 1 мітку з softmaxфункцією на останньому шарі. Таким чином, я можу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

2
Не квадратні зображення для класифікації зображень
У мене є набір даних із широкими зображеннями: 1760x128. Я читав, хоча навчальні посібники та книги, і більшість із них зазначає, що вхідні зображення повинні бути квадратними, а якщо ні, вони перетворюються на квадратні, щоб навчатись у вже навчених (на квадратних зображеннях) cnns. Чи є спосіб тренувати cnn для не …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.