Запитання з тегом «neural-networks»

Штучні нейронні мережі (АНН) - це широкий клас обчислювальних моделей, що базуються на біологічних нейронних мережах. Вони охоплюють подачі NN (включаючи "глибокі" NN), звивисті NN, повторювані NN тощо.

1
Що пояснює приклад того, чому нормалізацію партії потрібно робити з обережністю?
Я читав документ про нормалізацію партії [1], і в ній був один розділ, де йдеться про приклад, намагаючись показати, чому нормалізацію потрібно робити обережно. Я, чесно кажучи, не можу зрозуміти, як працює приклад, і мені справді дуже цікаво зрозуміти, що вони створюють папір, наскільки я можу. Спочатку дозвольте це процитувати …

4
Нейронна мережа - значення ваг
Я використовую передачу NN. Я розумію концепцію, але моє питання стосується ваг. Як ви можете їх інтерпретувати, тобто що вони представляють, або як вони можуть бути знятими (що стосується просто коефіцієнтів функції)? Я знайшов щось, що називається "простір ваг", але я не зовсім впевнений, що це означає.

2
Чи пов'язані залишкові мережі з підвищенням градієнта?
Нещодавно ми побачили появу Залишкової Нейронної Мережі, де кожен шар складається з обчислювального модуля та з'єднання, що зберігає вхід до шару, такого як вихід i-го шару демонструє: Мережа дозволяє витягнути залишкові характеристики та дозволяє отримати більш глибоку глибину, в той час як бути більш надійною до зникаючої градієнтної проблеми, досягаючи …

1
Q-навчання за допомогою нейронної мережі як наближення функції
Я намагаюся використовувати нейронну мережу для того, щоб наблизити значення Q у Q-навчанні, як у питаннях про Q-навчання за допомогою нейронних мереж . Як було запропоновано в першій відповіді, я використовую функцію лінійної активації для вихідного шару, в той час як я все ще використовую функцію активації сигмоїдів у прихованих …

3
Як модель пропуску грам Word2Vec генерує вихідні вектори?
У мене виникають проблеми з розумінням пропускної грамної моделі алгоритму Word2Vec. У безперервному пакеті слів легко зрозуміти, як контекстні слова можуть "поміститися" в нейронній мережі, оскільки ви в основному їх середні після множення кожного з гарячих представлень кодування на вхідну матрицю W. Однак, у випадку пропуску грам, ви отримуєте вектор …

2
Класифікація з частково "невідомими" даними
Припустимо, я хочу вивчити класифікатор, який приймає вектор чисел як вхідний і дає мітку класу як вихід. Мої дані навчання складаються з великої кількості пар вхід-вихід. Однак, коли я приходжу до тестування деяких нових даних, ці дані, як правило, лише частково завершені. Наприклад, якщо вектор вводу має довжину 100, лише …

1
R нейроннет - обчислення дають постійну відповідь
Я намагаюся використовувати neuralnetпакет R (документація тут ) для прогнозування. Ось що я намагаюся зробити: library(neuralnet) x <- cbind(runif(50, min=1, max=500), runif(50, min=1, max=500)) y <- x[, 1] * x[, 2] train <- data.frame(x, y) n <- names(train) f <- as.formula(paste('y ~', paste(n[!n %in% 'y'], collapse = ' + '))) …

5
Математичний фон для нейронних мереж
Не впевнений, чи підходить це для цього сайту, але я починаю свій магістр MSE з інформатики (бакалавра прикладної математики) і хочу отримати сильний досвід в машинному навчанні (я, швидше за все, збираюся здобути ступінь доктора наук). Одним із моїх підінтересів є нейронні мережі. Що є хорошим математичним підґрунтям для ANN? …

4
Можна отримати кращу АНН, видаливши деякі з'єднання?
Мені було цікаво, чи можливо за якихось обставин ANN працює краще, якщо відрізати деякі зв’язки на них, наприклад: Побудова однієї ANN, взявши паралельно два багатошарові АН і В (паралельні вузли вводу та виходу), додавши кілька "комунікаційних" зв'язків між прихованими шарами А і В? Чи можна отримати кращі результати узагальнення? Це …

1
Що таке втрата ваги?
Я починаю з глибокого навчання, і у мене є питання, відповіді якого я не зміг знайти, можливо, я не шукав належним чином. Я бачив цю відповідь , але все ще не ясно, що таке втрата ваги і як це пов'язано з функцією втрати.

2
Яка інтуїція стоїть за періодичною нейронною мережею довгострокової пам'яті (LSTM)?
Ідея, що стоїть за періодичною нейронною мережею (RNN), мені зрозуміла. Я розумію це таким чином: У нас є послідовність спостережень ( о⃗ 1, о⃗ 2, … , О⃗ нo→1,o→2,…,o→n\vec o_1, \vec o_2, \dots, \vec o_n ) (або, іншими словами, багатоваріантний часовий ряд). Кожне окреме спостереження о⃗ io→i\vec o_i - NNN …


2
Функція витрат на перехресну ентропію в нейронній мережі
Я переглядаю функцію витрат на перехресну ентропію, знайдену в цьому підручнику : C=−1n∑x[ylna+(1−y)ln(1−a)]C=−1n∑x[yln⁡a+(1−y)ln⁡(1−a)]C = -\frac{1}{n} \sum_x [y \ln a+(1−y)\ln(1−a)] Що саме ми підсумовуємо? Звичайно, це понад , але і не змінюються з . Усі є введеннями в один . навіть визначено в абзаці вище рівняння як функція від суми всіх …

2
Як тренувати SVM за допомогою зворотного розповсюдження?
Мені було цікаво, чи можна тренувати SVM (скажімо, лінійний, щоб полегшити справи) за допомогою зворотного розповсюдження? Наразі я перебуваю на дорозі, тому що можу думати лише про те, як записати вихід класифікатора як f( x ; θ , b ) = sgn ( θ ⋅ x - ( b + …

3
Чи може нейронна мережа засвоїти функціонал та його функціональну похідну?
Я розумію, що нейронні мережі (NN) можна вважати універсальними наближеннями як до функцій, так і до їх похідних, за певних припущень (як для мережі, так і для функції наближення). Насправді я зробив ряд тестів на простих, але нетривіальних функціях (наприклад, поліномах), і, схоже, я можу дійсно добре наблизити їх та …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.