різниця між нейронною мережею та глибоким навчанням


10

З точки зору різниці між нейронною мережею та глибоким навчанням, ми можемо перелічити декілька предметів, таких як включено більше шарів, масивний набір даних, потужне комп'ютерне обладнання, щоб зробити навчання складною моделлю можливою.

Окрім них, чи є більш детальне пояснення щодо різниці між NN та DL?


3
Наскільки мені відомо, достатньо мати декілька прихованих шарів, щоб зробити мережу «глибокою»; більше даних і більші комп’ютери - більше симптом збільшення доступності обох завдань машинного навчання.
Sycorax каже, що повернемо Моніку

Можливо, це питання слід перенести на новий обмін стеком штучного інтелекту ?
WilliamKF

2
@WilliamKF Тут прямо на тему.
Sycorax повідомляє про відновлення Моніки

Відповіді:



4

У Френка Дернонкура є краща відповідь загального призначення, але я думаю, що варто згадати, що коли люди використовують широкий термін "глибоке навчання", вони часто мають на увазі використання останніх методів, таких як згортання, які ви не знайдете в старших / традиційних (повністю пов'язані) нейронні мережі. Для проблем із розпізнаванням зображень згортання може включати більш глибокі нейронні мережі, оскільки згорнуті нейрони / фільтри дещо знижують ризик перенапруги шляхом обміну вагами.


1

Нейронні мережі з великою кількістю шарів - це глибока архітектура.

Однак алгоритм навчання зворотного розповсюдження, який використовується в нейронних мережах, не працює добре, коли мережа дуже глибока. Навчання архітектури в глибокій архітектурі ("глибоке навчання") має вирішити це. Наприклад, машини Boltzmann замість цього використовують контрастний алгоритм навчання.

Створити глибоку архітектуру легко. Скласти алгоритм навчання, який добре працює для глибокої архітектури, виявилося важким.


Але здається, що алгоритм зворотного розповсюдження все ще використовується для тренування конвеєрної та повторюваної мережі, хоча вони використовують деякі нещодавно розроблені методики чисельної оптимізації, такі як пакетна нормалізація.
користувач3269

@ user3269 пакетна нормалізація та випадання - приклади модифікацій алгоритму навчання, щоб спробувати змусити їх добре працювати в глибоких архітектурах.
Ніл G

0

Глибоке навчання вимагає нейронної мережі, що має кілька шарів - кожен шар здійснює математичні перетворення та подає в наступний шар. Вихід з останнього шару - це рішення мережі для заданого входу. Шари між вхідним і вихідним шаром називаються прихованими шарами.

Нейрова мережа глибокого навчання - це масивна сукупність перцептронів, з'єднаних між собою шарами. Ваги та зміщення кожного перцептрона в мережі впливають на характер рішення про вихідної мережі всієї мережі. У ідеально налаштованій нейронній мережі всі значення ваг та зміщення всіх перцептронів такі, що рішення про вихід завжди є правильним (як очікувалося) для всіх можливих входів. Як налаштовані ваги та ухили? Це відбувається ітераційно під час тренінгу в мережі - так зване глибоке навчання. (Шарад Ганді)

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.