Запитання з тегом «deep-learning»

нова область досліджень машинного навчання, що стосується технологій, що використовуються для вивчення ієрархічних уявлень даних, в основному це робиться з глибокими нейронними мережами (тобто мережами з двома або більше прихованими шарами), а також з деякими імовірнісними графічними моделями.

3
Чому громади NLP та машинного навчання зацікавлені у глибокому навчанні?
Сподіваюся, ви можете мені допомогти, оскільки у мене є деякі запитання на цю тему. Я новачок у галузі глибокого навчання, і хоча я робив кілька навчальних посібників, я не можу співвідносити чи відрізняти поняття одне від одного.

3
Чим відрізняється градієнтний спуск від стохастичного градієнтного спуску?
Чим відрізняється градієнтний спуск від стохастичного градієнтного спуску? Я не дуже знайомий з цими, чи можете ви описати різницю на короткому прикладі?

6
Чому працюють конволюційні нейронні мережі?
Я часто чув людей, які говорять про те, чому конволюційні нейронні мережі ще недостатньо вивчені. Чи відомо, чому нейромережі, що розвиваються, завжди отримують все більш досконалі функції, коли ми піднімаємося по шарах? Що змусило їх створити такий набір функцій і чи це би було справедливо і для інших типів глибоких …

6
Основи глибокого вивчення
Я шукаю документ, в якому детально описуються основи глибокого навчання. Ідеально подобається курс Ендрю Нґ для глибокого навчання. Ви знаєте, де я це можу знайти?

4
Як отримати точність, F1, точність та відкликання для моделі кераса?
Я хочу обчислити точність, відкликання та показник F1 для моєї бінарної моделі KerasClassifier, але не знаходжу жодного рішення. Ось мій фактичний код: # Split dataset in train and test data X_train, X_test, Y_train, Y_test = train_test_split(normalized_X, Y, test_size=0.3, random_state=seed) # Build the model model = Sequential() model.add(Dense(23, input_dim=45, kernel_initializer='normal', activation='relu')) …

1
Чи є правила вибору розміру міні-партії?
При тренуванні нейронних мереж один гіперпараметр має розмір міні-партії. Поширені варіанти - 32, 64 та 128 елементів на міні-партію. Чи є якісь правила / настанови, якою має бути міні-партія? Будь-які публікації, які досліджують вплив на навчання?

4
Чи завжди спуск градієнта до оптимального?
Мені цікаво, чи є сценарій, коли спуск градієнта не зближується до мінімуму. Я усвідомлюю, що спуск градієнта не завжди гарантується для сходу до глобального оптимуму. Я також усвідомлюю, що це може відрізнятися від оптимального, якщо, скажімо, розмір кроку занадто великий. Однак мені здається, що якщо воно буде відходити від якогось …


3
Вилучення ключового слова / фрази з тексту за допомогою бібліотек Deep Learning
Можливо, це занадто широко, але я шукаю посилання на те, як використовувати глибоке навчання у завданні підбиття тексту. Я вже реалізував узагальнення тексту, використовуючи стандартні підходи до частоти слів і ранжування речень, але я хотів би вивчити можливість використання методів глибокого навчання для цього завдання. Я також пройшов кілька реалізацій, …

2
Керас проти тф.керас
Я трохи заплутався у виборі між Keras (keras-команди / keras) і tf.keras (tensorflow / tensorflow / пітон / keras /) для мого нового дослідницького проекту. Існує дискусія про те, що Керасу ніхто не належить, тому люди щасливіші, щоб внести свій внесок, і в майбутньому буде набагато легше керувати проектом. Сігналы …

1
Прогнозування часових рядів за допомогою LSTM: Важливість зробити стаціонарні часові ряди
У цьому посиланні на "Стаціонарність та диференціювання " було зазначено, що такі моделі, як ARIMA, потребують стаціонарного часового ряду для прогнозування, оскільки його статистичні властивості, такі як середнє значення, дисперсія, автокореляція тощо, є постійними у часі. Оскільки RNN мають кращу здатність до вивчення нелінійних зв’язків ( як зазначено тут: Обіцяння …

2
Чому ReLU використовується як функція активації?
Функції активації використовуються для введення нелінійностей у лінійний вихід типу w * x + bв нейронній мережі. Який я здатний зрозуміти інтуїтивно для таких функцій активації, як сигмоїд. Я розумію переваги ReLU, яка уникає мертвих нейронів під час розмноження. Однак я не в змозі зрозуміти, чому ReLU використовується як функція …

4
Гіперпараметр пошуку для LSTM-RNN за допомогою Keras (Python)
Із підручника Keras RNN: "RNN - складний. Вибір розміру партії важливий, вибір втрат та оптимізатор є критично важливими тощо. Деякі конфігурації не збігаються". Отже, це більш загальне питання про налаштування гіперпараметрів LSTM-RNN на Керасі. Я хотів би знати про підхід до пошуку найкращих параметрів для вашої RNN. Я почав із …

2
місцеві мінімуми проти сідлових точок у глибокому навчанні
Я чув, як Ендрю Нг (у відео, якого я, на жаль, більше не можу знайти) розповів про те, як розуміння місцевих мінімумів у проблемах глибокого навчання змінилося в тому сенсі, що вони зараз вважаються менш проблематичними, оскільки у просторах з великими розмірами (зустрічаються в глибоке навчання) критичні точки, швидше, будуть …


Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.