Запитання з тегом «deep-learning»

Область машинного навчання, пов'язана з вивченням ієрархічних уявлень даних, в основному з глибокими нейронними мережами.

2
Яка різниця між "глибоким навчанням" та багаторівневим / ієрархічним моделюванням?
Чи "глибоке навчання" - це ще один термін для багаторівневого / ієрархічного моделювання? Я набагато більше знайомий з останнім, ніж з першим, але, як я можу сказати, головна відмінність полягає не в їх визначенні, а в тому, як вони використовуються та оцінюються в межах своєї області застосування. Схоже, кількість вузлів …

7
Чому точність перевірки коливається?
У мене є чотиришаровий CNN для прогнозування відповіді на рак за допомогою даних МРТ. Я використовую активацію ReLU для введення нелінійностей. Точність та втрати поїздів монотонно збільшуються та зменшуються відповідно. Але моя точність тесту починає дико коливатися. Я спробував змінити рівень навчання, зменшити кількість шарів. Але це не зупиняє коливання. …

2
Що моєї нейронної мережі щойно дізналися? Які особливості це стосується і чому?
Нейронна мережа вивчає особливості набору даних як засобу досягнення певної мети. Коли це буде зроблено, ми можемо захотіти знати, про що дізналася нейронна сітка. У чому полягали особливості і чому це ставилося до них. Чи може хтось надати деякі посилання на основні роботи, які стосуються цієї проблеми?


5
Як боротися з ієрархічними / вкладеними даними в машинному навчанні
Я поясню свою проблему на прикладі. Припустимо, ви хочете передбачити дохід фізичної особи за деякими ознаками: {Вік, стать, країна, регіон, місто}. У вас такий навчальний набір даних train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 


4
Як можливо, що втрати валідації збільшуються, а точність перевірки також збільшується
Я треную просту нейронну мережу на наборі даних CIFAR10. Через деякий час втрати валідації почали зростати, тоді як точність перевірки також зростає. Втрати тесту та точність випробувань продовжують поліпшуватися. Як це можливо? Схоже, якщо збільшення втрат валідації, точність повинна знизитися. PS Є кілька подібних питань, але ніхто не пояснив, що …

1
Чи може ступінь свободи бути цілим числом?
Коли я використовую GAM, це дає мені залишковий коефіцієнт DF (останній рядок у коді). Що це означає? Виходячи за приклад GAM, загалом, чи може число ступенів свободи бути нецілим числом?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
Чи не можна зараз сказати, що моделі глибокого навчання є інтерпретаційними? Чи є особливості вузлів?
Для статистичної та машинної моделей навчання існує кілька рівнів інтерпретаційності: 1) алгоритм в цілому, 2) частини алгоритму в цілому 3) частини алгоритму на конкретних входах, і ці три рівні розділяються на дві частини кожен, один для тренувань та один для функції eval. Останні дві частини набагато ближче, ніж до першої. …

5
Чи може глибока нейронна мережа наближати функцію множення без нормалізації?
Скажімо, ми хочемо зробити регресію для простого f = x * yвикористання стандартної глибокої нейронної мережі. Я пам’ятаю, що є повторні дослідження, які говорять про те, що NN з одним прихованим шаром може апоксимувати будь-яку функцію, але я спробував і без нормалізації NN не зміг наблизити навіть це просте множення. …

1
Чому функції активації, не орієнтовані на нуль, є проблемою у зворотному розповсюдженні?
Я прочитав тут таке: Сигмоїдні виходи не орієнтовані на нуль . Це небажано, оскільки нейрони в більш пізніх шарах обробки в нейронній мережі (детальніше про це незабаром) отримували б дані, не орієнтовані на нуль. Це має значення для динаміки під час спуску градієнта, оскільки якщо дані, що надходять у нейрон, …

4
Нейронна мережа з пропускними рівнями
Мене цікавить регресія з нейронними мережами. Нейронні мережі з нульовими прихованими вузлами + з'єднання пропускового шару є лінійними моделями. Що з тими ж нейронними мережами, але із прихованими вузлами? Мені цікаво, якою була б роль з'єднань пропускового шару? Інтуїтивно, я б сказав, що якщо включити з'єднання пропускового шару, то остаточна …

2
як зважувати втрати KLD проти втрати на відновлення у змінному автокодері
майже в усіх прикладах коду, який я бачив у VAE, функції втрат визначаються наступним чином (це тензорфловий код, але я бачив подібне для theano, факела тощо. Це також для convnet, але це також не надто актуально , просто впливає на осі, на які беруться суми): # latent space loss. KL …

5
Яка різниця між конволюційними нейронними мережами та глибоким навчанням?
Я хочу використовувати глибоке навчання у своєму проекті. Я переглянув пару паперів, і в мене виникло питання: чи є різниця між нейронною мережею згортки та глибоким навчанням? Ці речі однакові чи вони мають якісь основні відмінності, і що краще?

10
Чому б не просто скинути нейронні мережі та глибоке навчання? [зачинено]
Закрито . Це питання ґрунтується на думці . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб на нього можна було відповісти фактами та цитатами, відредагувавши цю публікацію . Закрито 2 роки тому . Принципова проблема глибокого навчання та нейронних мереж загалом. Рішення, що відповідають даним навчальних даних, …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.