Запитання з тегом «deep-learning»

нова область досліджень машинного навчання, що стосується технологій, що використовуються для вивчення ієрархічних уявлень даних, в основному це робиться з глибокими нейронними мережами (тобто мережами з двома або більше прихованими шарами), а також з деякими імовірнісними графічними моделями.

1
Використання RNN (LSTM) для системи розпізнавання жестів
Я намагаюся створити систему розпізнавання жестів для класифікації жестів ASL (американської мови жестів ) , тому мій вхід повинен бути послідовністю кадрів або з камери, або з відеофайлу, тоді він визначає послідовність і відображає її у відповідній клас (спати, допомагати, їсти, бігати тощо) Справа в тому, що я вже створив …

1
Керас LSTM з 1D часовим рядом
Я вивчаю, як користуватися Керасом, і я мав розумний успіх у моєму маркованому наборі даних, використовуючи приклади на глибоке навчання Chollet для Python . Набір даних становить ~ 1000 часових рядів довжиною 3125 з 3 потенційними класами. Я хотів би вийти за рамки базових щільних шарів, які дають мені приблизно …

1
Що таке «новий алгоритм навчання підкріплення» в AlphaGo Zero?
Чомусь AlphaGo Zero не отримує такої реклами, як оригінальний AlphaGo, незважаючи на неймовірні результати. Починаючи з нуля, він вже переміг AlphaGo Master і пройшов численні інші орієнтири. Ще неймовірніше, що це робиться за 40 днів. Google називає це ", мабуть, найкращим гравцем Go у світі" . DeepMind стверджує, що це …

1
Переформатування даних для глибокого навчання за допомогою Keras
Я початківець з Керасом, і я почав із прикладу MNIST, щоб зрозуміти, як насправді працює бібліотека. Фрагмент коду проблеми MNIST у папці приклад Keras задається як: import numpy as np np.random.seed(1337) # for reproducibility from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout, Activation, Flatten from …

1
Трансформація автоматичних кодерів
Я щойно прочитав статтю Джеффа Гінтона про перетворення автоінкодерів Хінтон, Крижевський та Ван: Трансформація автокодерів . У галузі штучних нейронних мереж та машинного навчання, 2011. і дуже хотілося б пограти з чимось подібним. Але прочитавши його, я не зміг отримати достатньо деталей із статті про те, як я міг би …

2
Які відмінності між Convolutional1D, Convolutional2D та Convolutional3D?
Я дізнався про конволюційні нейронні мережі. Переглядаючи Kerasприклади, я натрапив на три різні методи згортки. А саме, 1D, 2D та 3D. Які відмінності між цими трьома шарами? Які випадки їх використання? Чи є посилання чи посилання, які показують випадки їх використання?

2
Сортуйте числа за допомогою лише 2 прихованих шарів
Я читаю наріжний документ « Послідовність до послідовності навчання за допомогою нейронних мереж » Іллі Суцкевера та Квока Ле. На першій сторінці коротко згадується, що: A surprising example of the power of DNNs is their ability to sort N N-bit numbers using only 2 hidden layers of quadratic size Чи …

4
Чому прискорюється спуск градієнта, якщо функція плавна?
Зараз я читаю книгу під назвою "Ручне машинне навчання за допомогою Scikit-Learn та TensorFlow", і в главі 11 вона містить такий опис щодо пояснення ELU (Exponential ReLU). По-третє, функція скрізь гладка, в тому числі навколо z = 0, що сприяє прискоренню градієнтного спуску, оскільки воно не відскакує стільки, скільки вліво …

1
Чому TensorFlow не може підходити до простої лінійної моделі, якщо я мінімізую абсолютну середню помилку замість середньої помилки у квадраті?
У Вступі я щойно змінився loss = tf.reduce_mean(tf.square(y - y_data)) до loss = tf.reduce_mean(tf.abs(y - y_data)) і модель не в змозі дізнатись, з часом збитки тільки зростали. Чому?

2
Relu має 0 градієнт за визначенням, то чому градієнт зникає не є проблемою для x <0?
За визначенням, Relu - це max(0,f(x)). Потім її градієнт визначається як: 1 if x &gt; 0 and 0 if x &lt; 0. Чи не означає це, що градієнт завжди 0 (зникає), коли х &lt;0? Тоді чому ми говоримо, що Relu не страждає від проблеми градієнта?

1
ЯК: глибока ініціалізація ваги нейронної мережі
Враховуючи складне навчальне завдання (наприклад, велика розмірність, властива їм складність даних) Глибокі нейронні мережі важко піддаються навчанню . Щоб полегшити багато проблем, можна: Нормалізуйте дані про якість &amp; &amp; handpick вибрати інший алгоритм навчання (наприклад, RMSprop замість Gradient Descent) вибрати більш круту градієнтну вартість вартості (наприклад, перехресна ентропія замість MSE) …

1
Як я обчислюю дельта-термін згорткового шару, враховуючи дельта-умови і ваги попереднього згорткового шару?
Я намагаюся тренувати штучну нейронну мережу з двома звивистими шарами (c1, c2) та двома прихованими шарами (c1, c2). Я використовую стандартний підхід для розмноження. У зворотному проході я обчислюю термін помилки шару (дельта) на основі похибки попереднього шару, ваги попереднього шару та градієнта активації щодо функції активації поточного шару. Більш …

1
Чому моя модель Кераса вчиться розпізнавати тло?
Я намагаюся навчити цю керасову реалізацію Deeplabv3 + на Pascal VOC2012, використовуючи попередньо перевірену модель (яка також проходила навчання на цьому наборі даних). Я отримав дивні результати з точністю швидко зближення до 1,0: 5/5 [==============================] - 182s 36s/step - loss: 26864.4418 - acc: 0.7669 - val_loss: 19385.8555 - val_acc: 0.4818 …

2
Чи означає нормалізація партії, що сигмоїди працюють краще, ніж ReLU?
Пакетна нормалізація та ReLU - це рішення для зниклої градієнтної проблеми. Якщо ми використовуємо пакетну нормалізацію, чи повинні ми використовувати сигмоїди? Або є функції ReLU, які роблять їх корисними навіть при використанні batchnorm? Я припускаю, що нормалізація, проведена в batchnorm, посилатиме нульову активацію негативною. Чи означає це, що batchnorm вирішує …

2
які методи машинного / глибокого навчання / nlp використовуються для класифікації певних слів як імені, мобільного номера, адреси, електронної пошти, штату, округу, міста тощо
Я намагаюся створити інтелектуальну модель, яка може сканувати набір слів або рядків і класифікувати їх як імена, мобільні номери, адреси, міста, штати, країни та інші об'єкти за допомогою машинного навчання або глибокого навчання. Я шукав підходи, але, на жаль, не знайшов жодного підходу. Я намагався вбудовувати мішок із слів моделі …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.