Запитання з тегом «deep-learning»

Для питань, пов'язаних з глибоким навчанням, що стосується підмножини методів машинного навчання, заснованих на штучних нейронних мережах (АНН) з декількома прихованими шарами. Прикметник глибокий, таким чином, відноситься до кількості шарів ANN. Вираз глибоке навчання, мабуть, було введено (хоча не в контексті машинного навчання чи АНН) у 1986 році Ріною Дехтер у праці "Навчання під час пошуку проблем-задоволення".

3
Хто-небудь замислювався над тим, щоб зробити нейронну мережу задавати питання, а не лише відповідати на них?
Більшість людей намагається відповісти на питання нейронною мережею. Однак хтось придумав якісь думки про те, як змусити нейронну мережу ставити запитання замість відповіді на запитання? Наприклад, якщо CNN може вирішити, до якої категорії належить об'єкт, то він може задати якесь питання, щоб допомогти класифікації?


2
Кодування вводу / виводу для нейронної мережі для вивчення гри на основі сітки
Я пишу просту гру з іграшками з наміром навчити поверх неї глибоку нейронну мережу. Правила гри приблизно такі: У грі є дошка, складена з шестикутних клітин. Обидва гравці мають однакову колекцію творів, яку вони можуть вибрати для вільного розташування на дошці. Розміщення різних типів очок за присвоєння фігур (або зменшення …

3
Як реалізувати обмежений простір дій у навчанні підкріплення?
Я кодую навчальну модель підкріплення агентом РРО завдяки дуже гарній бібліотеці Tensorforce , побудованій на вершині Tensorflow. Перша версія була дуже простою, і тепер я занурююсь у складніші умови, коли всі дії недоступні на кожному кроці. Скажімо, існує 5 дій, і їх наявність залежить від внутрішнього стану (який визначається попередньою …

2
Як працюють генеративні змагальні мережі?
Я читаю про генеративні змагальні мережі (GAN) і маю певні сумніви щодо цього. Поки я розумію, що в GAN існує два різних типи нейронних мереж: одна - генеративна ( ), а інша - дискримінаційна ( ). Генеративна нейронна мережа генерує деякі дані, які дискримінаційна нейронна мережа оцінює правильність. GAN дізнається, …

1
Як виглядає нова шкала «диференційованого нейронного комп’ютера» Deepmind?
Deepmind щойно опублікував документ про "диференційований нейронний комп'ютер" , який в основному поєднує нейронну мережу з пам'яттю . Ідея полягає в тому, щоб навчити нейронну мережу створювати та згадувати корисні явні спогади для певного завдання. Це добре доповнює здібності нейронної мережі, тому що NN лише зберігають знання неявно у вагах, …

2
Чи є якийсь науковий / математичний аргумент, який заважає глибокому навчанню коли-небудь виробляти сильний ШІ?
Я читаю «Книгу Чому» Джудеї Перл , в якій він згадує, що глибоке навчання - це лише прославлена ​​технологія, що відповідає кривій, і не зможе виробляти людський інтелект. З його книги є ця схема, яка ілюструє три рівні пізнавальних здібностей: Ідея полягає в тому, що «інтелект», що виробляється поточними технологіями …

7
Чи може AI навчитися формувати контур історії?
Я знаю, що одним із останніх примх зараз є підготовка нейронної мережі для створення екранізацій та нових епізодів, наприклад, Друзів чи Сімпсонів, і це добре: це цікаво і може бути необхідними першими кроками до створення програм, які можуть насправді генерувати розумні / зрозумілі історії. Чи можуть у цьому контексті нейронні …

2
Чи слід розглядати глибокі залишкові мережі як ансамбль мереж?
Питання стосується архітектури Deep Residual Networks ( ResNets ). Модель, яка зайняла 1-е місце на "Large Visle Visual Recognition Challenge 2015" (ILSVRC2015) у всіх п'яти основних треках: Класифікація ImageNet: "Ультраглибокі" (цитата Янна) 152-шарові сітки Виявлення ImageNet: на 16% краще, ніж 2-е Локалізація ImageNet: на 27% краще 2-го Виявлення COCO: на …

1
Для чого використовуються різні види нейронних мереж?
Я знайшов наступний чіт-лист нейронної мережі ( шпаргалки для AI, нейронні мережі, машинне навчання, глибоке навчання та великі дані ). Для чого використовуються всі ці види нейронних мереж? Наприклад, які нейронні мережі можна використовувати для регресії чи класифікації, які можна використовувати для генерації послідовностей тощо? Мені просто потрібен короткий огляд …

2
Який шар забирає більше часу на тренування CNN? Складні шари проти шарів ФК
У конволюційній нейромережі, який шар витрачає максимум часу на тренування? Зворотні шари або повністю пов'язані шари? Ми можемо взяти архітектуру AlexNet, щоб зрозуміти це. Я хочу побачити час розриву тренувального процесу. Я хочу порівняльне порівняння часу, щоб ми могли приймати будь-яку константну GPU.

5
Чому глибокі нейронні мережі та глибоке навчання недостатні для досягнення загального інтелекту?
Все, що стосується Deep Learning (DL) та глибоких (er) мереж, здається "успішним", принаймні дуже швидко прогресує, і культивує віру в те, що AGI досягається. Це народна уява. DL - це надзвичайний інструмент для вирішення багатьох проблем, включаючи створення AGI. Однак цього недостатньо. Засіб - необхідний інгредієнт, але часто недостатній. Провідні …

1
Чи можуть шари глибоких нейронних мереж розглядатися як мережі Хопфілда?
Мережі Hopfield здатні зберігати вектор і витягувати його, починаючи з галасливої ​​його версії. Вони роблять це, встановлюючи ваги, щоб мінімізувати енергетичну функцію, коли всі нейрони встановлені рівними векторним значенням, і отримують вектор, використовуючи шумну версію його як вхідну і дозволяючи сітці осідати до мінімуму енергії. Залишаючи осторонь такі проблеми, як …

1
Втрата різко стрибає, коли я знижую рівень навчання за допомогою оптимізатора Адама в PyTorch
Я треную auto-encoderмережу з Adamоптимізатором (з amsgrad=True) таMSE loss завданням розділення одноканального аудіо джерела. Кожного разу, коли я знижую коефіцієнт навчання на коефіцієнт, втрати мережі різко стрибають, а потім зменшуються до наступного занепаду швидкості навчання. Я використовую Pytorch для реалізації мережі та навчання. Following are my experimental setups: Setup-1: NO …

1
Як можна застосовувати градієнти політики у випадку безлічі безперервних дій?
Оптимізація політики довіреної регіональної політики (TRPO) та оптимізація максимальної політики (РРО) - два алгоритми передових градієнтів політики. При використанні однієї безперервної дії, як правило, ви використовуєте деякий розподіл ймовірностей (наприклад, Гаусса) для функції втрат. Приблизна версія: L(θ)=log(P(a1))A,L(θ)=log⁡(P(a1))A,L(\theta) = \log(P(a_1)) A, де є перевагою винагород, характеризується та що виходить з нейронної …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.