Я згоден, що це занадто широко, але ось відповідь на 1 речення для більшості з них. Ті, які я залишив (знизу діаграми), дуже сучасні та дуже спеціалізовані. Я мало знаю про них, тому, можливо, хтось, хто це може, може покращити цю відповідь.
- Perceptron: лінійна або логістична регресія (і, таким чином, класифікація).
- Передача вперед: Зазвичай нелінійна регресія або класифікація з сигмоїдної активацією. По суті багатошаровий перцептрон.
- Мережа радіальної основи: мережа пересилання вперед з функціями активації радіальної основи. Використовується для класифікації та деяких видів фільтрування відео / аудіо
- Глибока подача вперед: подача вперед із більш ніж 1 прихованим шаром. Використовується для вивчення складніших моделей класифікації чи регресії, можливо, підкріплення.
- Повторна нейромережа: мережа переадресації з глибокою подачею, де деякі вузли підключаються до минулих шарів. Використовується в навчанні підкріплення та для вивчення шаблонів у послідовних даних, таких як текст чи звук.
- LSTM: повторювана нейронна мережа зі спеціалізованими нейронами управління (іноді їх називають воротами), які дозволяють запам'ятовувати сигнали протягом більш тривалого періоду часу або вибірково їх забувати. Використовується в будь-якому додатку RNN і часто може вивчити послідовності, що мають дуже тривалий час повторення.
- ГРУ: Настільки ж LSTM, ще один вид РНН із закритим типом зі спеціалізованими контрольними нейронами.
- Auto Encoder: вчиться стискати дані, а потім розпаковувати їх. Вивчивши цю модель, її можна розділити на два корисні підрозділи: відображення від вхідного простору до простору з низькими розмірами, який може бути простішим для інтерпретації чи розуміння; і відображення з невеликого розмірного підпростору простих чисел на складні візерунки, які можна використовувати для створення цих складних шаблонів. Основи багато сучасних робіт із обробки зору, мови та аудіо.
- VAE, DAE, SAE: Спеціалізації Auto Encoder.
- Ланцюг Маркова: Нейронна мережа представлення ланцюга Маркова: Стан кодується у наборі нейронів, які є активними, і ймовірність переходу таким чином визначається вагами. Використовується для вивчення ймовірностей переходу та непідконтрольного функціонуванню інших функцій.
- HN, BM, RBM, DBM: Спеціалізовані архітектури, засновані на ідеї ланцюга Маркова, використовуються для автоматичного вивчення корисних функцій для інших програм.
Глибока згорнута мережа: Подібно мережі передачі, але кожен вузол - це справді банк вузлів, який вивчає згортання з шару перед ним. Це по суті дозволяє йому вивчати фільтри, крайові детектори та інші моделі, що цікавлять відео та аудіо обробки.
Глибока деконволюційна мережа: навпроти згорткової мережі в деякому сенсі. Дізнайтеся про зіставлення з функцій, які представляють краї або інші властивості високого рівня якогось невидимого зображення, назад до піксельного простору. Створюйте зображення з резюме.
DCIGN: По суті це автокодер, зроблений з DCN і DN, що з’єдналися. Використовується для вивчення генеративних моделей для складних зображень, таких як обличчя.
Генеративна змагальна мережа: використовується для вивчення генеративних моделей для складних зображень (або інших типів даних), коли для DCIGN не вистачає даних про навчання. Одна модель вчиться генерувати дані від випадкового шуму, а інша вчиться класифікувати вихід першої мережі як відмінні від усіх навчальних даних.