Запитання з тегом «neural-networks»

Штучні нейронні мережі (АНН) - це широкий клас обчислювальних моделей, що базуються на біологічних нейронних мережах. Вони охоплюють подачі NN (включаючи "глибокі" NN), звивисті NN, повторювані NN тощо.

1
Вірогідність перехресної ентропії або журналу у вихідному шарі
Я читаю цю сторінку: http://neuralnetworksanddeeplearning.com/chap3.html і було сказано, що сигмоїдний вихідний шар з перехресною ентропією досить подібний з вихідним шаром softmax з вірогідністю лог. що трапиться, якщо я використовую сигмоїд з вірогідністю лога або softmax з перехресною ентропією у вихідному шарі? це добре? тому що я бачу, що між рівнями …

2
Що моєї нейронної мережі щойно дізналися? Які особливості це стосується і чому?
Нейронна мережа вивчає особливості набору даних як засобу досягнення певної мети. Коли це буде зроблено, ми можемо захотіти знати, про що дізналася нейронна сітка. У чому полягали особливості і чому це ставилося до них. Чи може хтось надати деякі посилання на основні роботи, які стосуються цієї проблеми?

2
Конволюційні нейронні мережі: Чи не є центральні нейрони надмірно представлені у висновку?
[Це питання також було задано при переповненні стека] Питання коротше Я вивчаю конволюційні нейронні мережі, і вважаю, що ці мережі не розглядають кожен вхідний нейрон (піксель / параметр) рівномірно. Уявіть, у нас є глибока мережа (багато шарів), яка застосовує згортання на деяке вхідне зображення. Нейрони в "середині" зображення мають багато …

6
Різниця між мережею Байєса, нейронною мережею, деревом рішень та мережами Петрі
Яка різниця між нейронною мережею , Байєсовою мережею , деревом рішень та мережами Петрі , навіть якщо вони всі графічні моделі та візуально зображують причинно-наслідковий зв’язок.


2
Що означає термін насичення нелінійностей?
Я читав статтю ImageNet Classification з глибокими згортковими нейронними мережами, і в розділі 3 вони пояснювали архітектуру своєї конволюційної нейромережі. Вони пояснюють, як вони віддали перевагу використанню: ненасичуюча нелінійністьf(x)=max(0,x).f(x)=max(0,x).f(x) = max(0, x). бо швидше було тренуватися. У цій роботі вони, схоже, називають насичуючі нелінійності як більш традиційні функції, що використовуються …


5
Як боротися з ієрархічними / вкладеними даними в машинному навчанні
Я поясню свою проблему на прикладі. Припустимо, ви хочете передбачити дохід фізичної особи за деякими ознаками: {Вік, стать, країна, регіон, місто}. У вас такий навчальний набір даних train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

3
R: Випадковий ліс, який кидає NaN / Inf у помилці "виклику іноземної функції", незважаючи на відсутність набору даних NaN [закритий]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 2 роки тому . Я використовую caret, щоб запустити перехрещений випадковий ліс над набором даних. Змінна Y - фактор. У моєму наборі даних немає NaN, Inf …

4
Як можливо, що втрати валідації збільшуються, а точність перевірки також збільшується
Я треную просту нейронну мережу на наборі даних CIFAR10. Через деякий час втрати валідації почали зростати, тоді як точність перевірки також зростає. Втрати тесту та точність випробувань продовжують поліпшуватися. Як це можливо? Схоже, якщо збільшення втрат валідації, точність повинна знизитися. PS Є кілька подібних питань, але ніхто не пояснив, що …

3
Чи не можна зараз сказати, що моделі глибокого навчання є інтерпретаційними? Чи є особливості вузлів?
Для статистичної та машинної моделей навчання існує кілька рівнів інтерпретаційності: 1) алгоритм в цілому, 2) частини алгоритму в цілому 3) частини алгоритму на конкретних входах, і ці три рівні розділяються на дві частини кожен, один для тренувань та один для функції eval. Останні дві частини набагато ближче, ніж до першої. …

2
Функція втрати коефіцієнта кістки та поперечної ентропії
Під час навчання піксельних нейронних мереж сегментації пікселів, таких як повністю згорнуті мережі, як ви приймаєте рішення використовувати функцію втрати перехресної ентропії та функцію втрати коефіцієнта кістки? Я усвідомлюю, що це коротке запитання, але не зовсім впевнений, яку ще інформацію надавати. Я переглянув купу документації про дві функції втрат, але …

5
Чи може глибока нейронна мережа наближати функцію множення без нормалізації?
Скажімо, ми хочемо зробити регресію для простого f = x * yвикористання стандартної глибокої нейронної мережі. Я пам’ятаю, що є повторні дослідження, які говорять про те, що NN з одним прихованим шаром може апоксимувати будь-яку функцію, але я спробував і без нормалізації NN не зміг наблизити навіть це просте множення. …

1
Що таке дослідження абляції? І чи є систематичний спосіб її виконання?
Що таке дослідження абляції? І чи є систематичний спосіб її виконання? Наприклад, у мене є ннn предикторів лінійної регресії, яку я назву своєю моделлю. Як я проведу дослідження абляції до цього? Які показники я повинен використовувати? Всеосяжне джерело чи підручник будуть вдячні.

1
Чому функції активації, не орієнтовані на нуль, є проблемою у зворотному розповсюдженні?
Я прочитав тут таке: Сигмоїдні виходи не орієнтовані на нуль . Це небажано, оскільки нейрони в більш пізніх шарах обробки в нейронній мережі (детальніше про це незабаром) отримували б дані, не орієнтовані на нуль. Це має значення для динаміки під час спуску градієнта, оскільки якщо дані, що надходять у нейрон, …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.