Для чого використовуються різні види нейронних мереж?


11

Я знайшов наступний чіт-лист нейронної мережі ( шпаргалки для AI, нейронні мережі, машинне навчання, глибоке навчання та великі дані ).

введіть тут опис зображення

Для чого використовуються всі ці види нейронних мереж? Наприклад, які нейронні мережі можна використовувати для регресії чи класифікації, які можна використовувати для генерації послідовностей тощо? Мені просто потрібен короткий огляд (1-2 рядки) їх застосувань.

Відповіді:


9

Я згоден, що це занадто широко, але ось відповідь на 1 речення для більшості з них. Ті, які я залишив (знизу діаграми), дуже сучасні та дуже спеціалізовані. Я мало знаю про них, тому, можливо, хтось, хто це може, може покращити цю відповідь.

  • Perceptron: лінійна або логістична регресія (і, таким чином, класифікація).
  • Передача вперед: Зазвичай нелінійна регресія або класифікація з сигмоїдної активацією. По суті багатошаровий перцептрон.
  • Мережа радіальної основи: мережа пересилання вперед з функціями активації радіальної основи. Використовується для класифікації та деяких видів фільтрування відео / аудіо
  • Глибока подача вперед: подача вперед із більш ніж 1 прихованим шаром. Використовується для вивчення складніших моделей класифікації чи регресії, можливо, підкріплення.

  • Повторна нейромережа: мережа переадресації з глибокою подачею, де деякі вузли підключаються до минулих шарів. Використовується в навчанні підкріплення та для вивчення шаблонів у послідовних даних, таких як текст чи звук.
  • LSTM: повторювана нейронна мережа зі спеціалізованими нейронами управління (іноді їх називають воротами), які дозволяють запам'ятовувати сигнали протягом більш тривалого періоду часу або вибірково їх забувати. Використовується в будь-якому додатку RNN і часто може вивчити послідовності, що мають дуже тривалий час повторення.
  • ГРУ: Настільки ж LSTM, ще один вид РНН із закритим типом зі спеціалізованими контрольними нейронами.

  • Auto Encoder: вчиться стискати дані, а потім розпаковувати їх. Вивчивши цю модель, її можна розділити на два корисні підрозділи: відображення від вхідного простору до простору з низькими розмірами, який може бути простішим для інтерпретації чи розуміння; і відображення з невеликого розмірного підпростору простих чисел на складні візерунки, які можна використовувати для створення цих складних шаблонів. Основи багато сучасних робіт із обробки зору, мови та аудіо.
  • VAE, DAE, SAE: Спеціалізації Auto Encoder.

  • Ланцюг Маркова: Нейронна мережа представлення ланцюга Маркова: Стан кодується у наборі нейронів, які є активними, і ймовірність переходу таким чином визначається вагами. Використовується для вивчення ймовірностей переходу та непідконтрольного функціонуванню інших функцій.
  • HN, BM, RBM, DBM: Спеціалізовані архітектури, засновані на ідеї ланцюга Маркова, використовуються для автоматичного вивчення корисних функцій для інших програм.

  • Глибока згорнута мережа: Подібно мережі передачі, але кожен вузол - це справді банк вузлів, який вивчає згортання з шару перед ним. Це по суті дозволяє йому вивчати фільтри, крайові детектори та інші моделі, що цікавлять відео та аудіо обробки.

  • Глибока деконволюційна мережа: навпроти згорткової мережі в деякому сенсі. Дізнайтеся про зіставлення з функцій, які представляють краї або інші властивості високого рівня якогось невидимого зображення, назад до піксельного простору. Створюйте зображення з резюме.

  • DCIGN: По суті це автокодер, зроблений з DCN і DN, що з’єдналися. Використовується для вивчення генеративних моделей для складних зображень, таких як обличчя.

  • Генеративна змагальна мережа: використовується для вивчення генеративних моделей для складних зображень (або інших типів даних), коли для DCIGN не вистачає даних про навчання. Одна модель вчиться генерувати дані від випадкового шуму, а інша вчиться класифікувати вихід першої мережі як відмінні від усіх навчальних даних.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.