Запитання з тегом «deep-learning»

нова область досліджень машинного навчання, що стосується технологій, що використовуються для вивчення ієрархічних уявлень даних, в основному це робиться з глибокими нейронними мережами (тобто мережами з двома або більше прихованими шарами), а також з деякими імовірнісними графічними моделями.


4
Інтервал прогнозування навколо прогнозу часових рядів LSTM
Чи існує метод обчислення інтервалу прогнозування (розподілу ймовірностей) навколо прогнозу часових рядів з нейронної мережі LSTM (або іншої періодичної)? Скажімо, наприклад, я прогнозую 10 зразків у майбутнє (t + 1 до t + 10), виходячи з останніх 10 спостережуваних вибірок (t-9 до t), я б очікував, що прогноз при t …



2
Візуалізація тренувань з глибокої нейромережі
Я намагаюся знайти еквівалент діаграм Хінтона для багатошарових мереж, щоб скласти графік ваг під час тренувань. Навчена мережа дещо схожа на Deep SRN, тобто вона має велику кількість матриць з декількома вагами, що зробить одночасний графік декількох діаграм Хінтона візуально заплутаним. Хтось знає про хороший спосіб візуалізації процесу оновлення ваги …

5
Чому додавання шару відсіву покращує ефективність глибокого / машинного навчання, враховуючи, що випадання пригнічує деякі нейрони з моделі?
Якщо видалення деяких нейронів призводить до більш ефективної моделі, чому б не використати в першу чергу більш просту нейронну мережу з меншими шарами і меншою кількістю нейронів? Навіщо будувати більшу, більш складну модель на початку і придушувати її частини згодом?

2
Чому ініціалізацію ваг і ухилів слід вибирати близько 0?
Я читав це: Для тренування нашої нейронної мережі ми ініціалізуємо кожен параметр W (l) ijWij (l) та кожний b (l) ibi (l) до малого випадкового значення біля нуля (скажімо, згідно з Normal (0, ϵ2) Normal (0 , ϵ2) розподіл для деяких малих ϵϵ, скажімо, 0,01) із навчальних посібників зі Стенфордського …

3
Чому згортки завжди використовують непарні числа як filter_size
Якщо ми розглянемо 90-99% паперів, опублікованих за допомогою CNN (ConvNet). Переважна більшість із них використовує непарні номери фільтрів : {1, 3, 5, 7} для найбільш використовуваних. Ця ситуація може призвести до певної проблеми: За таких розмірів фільтрів, як правило, операція згортання не є ідеальною, якщо прокладка 2 (звичайна прокладка), а …

1
Що таке 1D згортковий шар у глибокому навчанні?
Я добре розумію роль та механізм звивистих шарів у програмі Deep Learning для обробки зображень у разі двовимірної чи тривимірної реалізації - вони "просто" намагаються вловлювати 2D-шаблони у зображеннях (у 3-х каналах у випадку 3D). Але нещодавно я наткнувся на 1D згорткові шари в контексті обробки природних мов, що є …

3
Чи слід використовувати GPU або CPU для висновку?
Я керую нейронною мережею з глибоким навчанням, яку пройшов навчання GPU. Тепер я хочу розгорнути це для декількох хостів для висновку. Питання полягає в тому, які умови вирішують, чи слід використовувати GPU або CPU для висновку? Додайте більше деталей із коментарів нижче. Я новачок у цьому, тому цінуються вказівки. Пам'ять …

3
Чим НН з глибоким навчанням зараз (2016) відрізняються від тих, які я вивчав лише 4 роки тому (2012)?
У Вікіпедії та deepplearning4j кажуть, що глибоко вивчаючий NN (DLNN) - це NN, які мають> 1 прихований шар. Такі види NN були стандартними для мене в університеті, тоді як DLNN зараз дуже розкручений. Був там, робив це - в чому ж велика справа? Я також чув, що складені NN вважаються …

2
Чи є можливість змінити показник, використаний при зворотному зупинці виклику в Керасі?
Під час використання зворотного виклику раннього припинення в навчанні Keras припиняється, коли деяка метрика (зазвичай втрата валідації) не збільшується. Чи існує спосіб використання іншої метрики (як точність, нагадування, вимірювання f) замість втрати перевірки? Усі приклади, які я бачив до цього часу, схожі на цей: callbacks.EarlyStopping (monitor = 'val_loss', терпіння = …

1
Багатозавдання навчання в Керасі
Я намагаюся реалізувати спільні шари в Керасі. Я бачу, що у Кераса є keras.layers.concatenate, але я не впевнений у документації про його використання. Чи можу я використовувати його для створення декількох загальних шарів? Який був би найкращий спосіб реалізувати просту спільну нейронну мережу, як показано нижче, використовуючи Keras? Зауважте, що …

1
Причина квадратних зображень у глибокому навчанні
Більшість передових моделей глибокого навчання, таких як VGG, ResNet тощо, потребують квадратних зображень як вхідних даних, як правило, розміром пікселя 224x224224x224224x224 . Чи є причина, чому вхід повинен мати однакову форму, або я можу створити конвеєрну модель з скажімо 100x200100x200100x200 (якщо я хочу зробити фасиміальне розпізнавання, наприклад, і у мене …

2
Втрати та точність валідації залишаються постійними
Я намагаюся реалізувати цей документ на наборі медичних зображень. Я роблю це в Керасі. Мережа, по суті, складається з 4 шарів conv і max-пулу з подальшим повністю пов'язаним шаром і м'яким класифікатором max. Наскільки я знаю, я дотримувався архітектури, згаданої в роботі. Однак втрати та точність перевірки просто залишаються рівними …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.