Запитання з тегом «neural-networks»

Штучні нейронні мережі (АНН) - це широкий клас обчислювальних моделей, що базуються на біологічних нейронних мережах. Вони охоплюють подачі NN (включаючи "глибокі" NN), звивисті NN, повторювані NN тощо.

5
Чи є наочний інструмент для проектування та застосування нейронних мереж / глибокого навчання? [зачинено]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 10 місяців тому . Я знаю, що існує багато бібліотек для машинного навчання та глибокого навчання, таких як caffe, Theano, TensorFlow, keras, ... Але мені здається, …

1
Матрична форма зворотного розмноження з партійною нормалізацією
Нормалізація партії пояснюється значним покращенням продуктивності глибоких нейронних сіток. Багато матеріалів в Інтернеті показує, як реалізувати його на основі активації за допомогою активації. Я вже реалізував backprop, використовуючи матричну алгебру, і враховуючи, що я працюю на мовах високого рівня (покладаючись на Rcpp(а згодом і на GPU) для щільного множення матриці), …

3
Нейрові архітектури: автоматизований дизайн даних
Нещодавній прогрес нейронних мереж узагальнений послідовністю нових архітектур, що характеризуються головним чином зростаючою складністю дизайну. Від LeNet5 (1994) до AlexNet (2012), до Overfeat (2013) та GoogleLeNet / Inception (2014) тощо ... Чи є спроба дозволити машині вирішувати / проектувати, яку архітектуру використовувати, залежно від даних?

2
Захоплення початкових шаблонів при використанні усіченого зворотного розповсюдження через час (RNN / LSTM)
Скажіть, що я використовую RNN / LSTM для аналізу настроїв, що є підходом до багатьох (див. Цей блог ). Мережа тренується за допомогою усіченого зворотного розповсюдження через час (BPTT), де мережа розкручується лише 30 останніх кроків, як зазвичай. У моєму випадку кожен мій розділ тексту, який я хочу класифікувати, набагато …

1
Чому люди не використовують більш глибокі RBF або RBF у поєднанні з MLP?
Тож, дивлячись на нейронні мережі радіальної основи функції, я помітив, що люди лише рекомендують використовувати 1 прихований шар, тоді як при багатошарових персептронних нейронних мережах більше шарів вважається кращим. З огляду на те, що мережі RBF можуть бути навчені з версією поширення зворотного зв'язку? Чи є причини, чому більш глибокі …

2
Які переваги використання байєсівської нейронної мережі
Нещодавно я прочитав деякі статті про нейромережу Байєса (BNN) [Neal, 1992] , [Neal, 2012] , що дає ймовірне співвідношення між входом і виходом у нейронній мережі. Навчання такої нейронної мережі здійснюється за допомогою MCMC, який відрізняється від традиційного алгоритму поширення зворотного зв'язку. Моє запитання: Яка перевага використання такої нейронної мережі? …


5
Як виконати імпутацію значень у дуже великій кількості точок даних?
У мене дуже великий набір даних, і близько 5% випадкових значень відсутні. Ці змінні співвідносяться між собою. Наступний приклад набору даних R - це лише іграшковий приклад з манекено-корельованими даними. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

2
Як застосувати нейронні мережі до задач класифікації на багато міток?
Опис: Нехай проблемною областю буде класифікація документів там, де існує набір функцій векторів, кожен з яких належить до 1 або більше класів. Наприклад, документ doc_1може належати Sportsі Englishкатегорії. Питання: Використовуючи нейронну мережу для класифікації, якою міткою був би вектор функції? це був би вектор, що складається з усіх класів таким, …

2
Застосування машинного навчання для фільтрації DDoS
У курсі машинного навчання Стенфорда Ендрю Нг згадав про застосування ML в ІТ. Через деякий час, коли я отримав DDoS середнього розміру (близько 20k ботів) на нашому сайті, я вирішив боротися з ним, використовуючи простий класифікатор Neural Network. Я написав цей сценарій python приблизно за 30 хвилин: https://github.com/SaveTheRbtz/junk/tree/master/neural_networks_vs_ddos Він використовує …

2
Чому функцію втрати 0-1 не можна усунути?
У книзі Ієна Гудфеллоу « Глибоке навчання» написано саме так Іноді функція втрат, яка насправді хвилює (скажімо, помилка класифікації), не є ефективною оптимізацією. Наприклад, точно зведення до мінімуму очікуваних втрат 0-1, як правило, є незмінним (експоненціальним у вхідному вимірі), навіть для лінійного класифікатора. У таких ситуаціях, як правило, оптимізується функція …

2
Чи можна (теоретично) тренувати нейронну мережу з меншою кількістю зразків тренувань, ніж ваги?
Перш за все: я знаю, немає загальної кількості розміру вибірки, необхідної для тренування нейронної мережі. Це залежить від занадто багато факторів, таких як складність завдання, шум у даних тощо. І чим більше навчальних зразків у мене буде, тим краще буде моя мережа. Але мені було цікаво: чи теоретично можливо тренувати …

2
Як спуск міні-партії градієнта оновлює ваги для кожного прикладу в партії?
Якщо ми обробляємо, наприклад, 10 прикладів у партії, я розумію, що ми можемо підсумовувати втрати за кожним прикладом, але як працює зворотне розмноження щодо оновлення ваг для кожного прикладу? Наприклад: Приклад 1 -> втрата = 2 Приклад 2 -> втрата = -2 Це призводить до середньої втрати 0 (E = …

3
Мотивація сигмоїдних вихідних одиниць у нейронних мережах, починаючи з ненормалізованих ймовірностей журналу, лінійних у
Передумови: Я вивчаю розділ 6 «Глибоке навчання» Іона Гудфллоу та Йошуа Бенджо та Аарона Курвіля. У розділі 6.2.2.2 (сторінки 182 з 183, які можна переглянути тут ) використання сигмоїдів для виведення P(y=1|x)P(y=1|x)P(y=1|x) мотивовано. Підсумовуючи частину матеріалу, вони дозволяють z=wTh+bz=wTh+bz = w^Th+b бути вихідним нейроном до застосування активації, де hhh - …

4
У CNN, чи збільшити вибір та перенести згортку однаково?
І терміни "upsampling" і "transpose convolution" вживаються, коли ви робите "деконволюцію" (<- не гарний термін, але дозвольте мені тут його використовувати). Спочатку я думав, що вони означають те саме, але мені здається, що вони різні, після того, як я прочитав ці статті. хто-небудь може уточнити? Транспоніруйте згортання : схоже, ми …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.