Запитання з тегом «deep-learning»

Область машинного навчання, пов'язана з вивченням ієрархічних уявлень даних, в основному з глибокими нейронними мережами.

2
Якір швидше RCNN
У роботі "Швидше RCNN", коли йдеться про анкерування, що вони означають, використовуючи "піраміди посилальних коробок" і як це робиться? Чи це просто означає, що в кожній з анкерних точок W * H * k формується обмежувальне поле? Де W = ширина, H = висота і k = кількість співвідношень сторін …

1
Як SVM = шаблон відповідає?
Я прочитав про SVM та дізнався, що вони вирішують оптимізаційну задачу та ідея максимальної маржі була дуже розумною. Тепер, використовуючи ядра, вони можуть знайти навіть нелінійні межі поділу, що було чудово. Поки я справді не маю уявлення, як SVM (спеціальна машина ядра) та машини ядра пов'язані з нейронними мережами? Розгляньте …

1
RNN з регуляризацією L2 припиняє навчання
Я використовую двонаправлений RNN для виявлення події незбалансованого виникнення. Позитивний клас у 100 разів рідше, ніж негативний. Хоча не використовую регуляризацію, я можу отримати 100% точність на наборі поїздів і 30% на комплект перевірки. Я включаю регуляризацію l2, і результат - лише 30% точність на поїзді, а не довше навчання …

2
Прогнозування вимог до пам'яті CPU та GPU для навчання DNN
Скажімо, у мене є деяка архітектура моделі глибокого вивчення, а також вибраний розмір міні-партії. Як я випливаю з цих очікуваних вимог пам'яті для навчання цій моделі? Як приклад, розглянемо (не повторювана) модель із введенням розмірності 1000, 4 повністю пов'язаних прихованих шарів розміром 100 та додатковим вихідним шаром розмірності 10. Розмір …

1
Скільки даних для глибокого навчання?
Я дізнаюся про глибоке навчання (зокрема, CNN), а також про те, як зазвичай вимагає дуже багато даних для запобігання надмірного розміщення. Однак мені також сказали, що чим більша ємність / більше параметрів має модель, тим більше даних потрібно для запобігання надмірного розміщення. Тому моє запитання: чому ви можете не просто …

3
Як класифікувати незбалансований набір даних за допомогою конволюційних нейронних мереж (CNN)?
У мене є незбалансований набір даних у задачі бінарної класифікації, де сума позитивів проти негативів становить 0,3% проти 99,7%. Розрив між позитивом і негативом величезний. Коли я треную CNN зі структурою, що використовується в проблемі MNIST, результат тестування показує високий показник помилкових негативних значень. Також крива помилок тренінгу швидко спадає …


2
Чи правда, що байєсцям не потрібні тестові набори?
Нещодавно я спостерігав за цим розмовою Еріка Дж. Ма і перевіряв його запис у блозі , де він цитує Радфорда Ніла, що байєсські моделі не надмірно (але вони можуть переповнювати ), і при їх використанні нам не потрібні тестові набори для їх перевірки (для мені здається, що цитати, швидше, говорять …

1
Яка модель глибокого навчання може класифікувати категорії, які не є взаємовиключними
Приклади: у мене є речення в описі посади: "Старший інженер Java у Великобританії". Я хочу використовувати модель глибокого навчання, щоб передбачити її як 2 категорії: English і IT jobs. Якщо я використовую традиційну модель класифікації, вона може передбачити лише 1 мітку з softmaxфункцією на останньому шарі. Таким чином, я можу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

4
Як інтерпретувати криву виживання моделі Кокса?
Як ви інтерпретуєте криву виживання з пропорційною моделлю небезпеки Кокса? У цьому прикладі іграшки, припустимо, ми маємо коксову пропорційну модель небезпеки для ageзмінної kidneyданих та генеруємо криву виживання. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Наприклад, на час 200200200, яке твердження вірно? або обидва помиляються? Заява 1: у …

4
Тренування нейронної мережі до регресії завжди передбачає середнє значення
Я треную просту конвертну нейронну мережу для регресії, де завдання передбачити (x, y) розташування коробки на зображенні, наприклад: На виході мережі є два вузли, один для x і один для y. Решта мережі - це стандартна звивиста нейронна мережа. Втрата - це стандартна середня квадратична помилка між передбачуваною позицією коробки …

3
Вибір особливостей за допомогою глибокого навчання?
Я хочу обчислити важливість кожної вхідної функції за допомогою глибокої моделі. Але я знайшов лише один документ про вибір функції за допомогою глибокого навчання - глибокого вибору функцій . Вони вставляють шар вузлів, підключених до кожної функції безпосередньо, перед першим прихованим шаром. Я чув, що мережа глибоких переконань (DBN) також …

1
Нормалізація введення для нейронів ReLU
Згідно з "Efficient Backprop" від LeCun et al. (1998), є хорошою практикою нормалізувати всі входи, щоб вони були зосереджені навколо 0 і лежали в межах максимальної другої похідної. Так, наприклад, ми використали [-0,5,0,5] для функції "Tanh". Це допоможе досягти прогресу в просуванні, коли гессея стає стабільнішою. Однак я не був …

2
Найкраще використовувати LSTM для прогнозування подій послідовності
Припустимо наступну 1 розмірну послідовність: A, B, C, Z, B, B, #, C, C, C, V, $, W, A, % ... Букви A, B, C, ..тут представляють "звичайні" події. Символи #, $, %, ...тут представляють "особливі" події Тимчасовий проміжок між усіма подіями неоднаковий (що завгодно від секунд до днів), хоча …

2
Вузьке місце застосування глибокого навчання на практиці
Прочитавши багато робіт з глибокого вивчення, таке грубе відчуття, що існує багато хитрощів у навчанні мережі, щоб досягти кращої, ніж звичайної, продуктивності. З точки зору галузевого застосування, дуже важко розробити подібні хитрощі, за винятком тих елітних дослідницьких груп у великих технологічних компаніях, наприклад, google або facebook. Тоді який найкращий спосіб …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.