Що робить нейронні мережі настільки хорошими в прогнозах?


12

Я новачок у нейромережі і намагаюся зрозуміти математично, що робить нейронні мережі настільки хорошими в проблемах класифікації.

Беручи за приклад невелику нейронну мережу (наприклад, один з 2 входами, 2 вузли в прихованому шарі та 2 вузли для виходу), все, що у вас є, є складною функцією на виході, яка здебільшого сигмоїдна над лінійною комбінацією сигмоподібної.

Отже, як це робить їх гарними в передбаченні? Чи призводить кінцева функція до якоїсь кривої підгонки?

Відповіді:


6

Нейронні мережі добре класифікуються. У деяких ситуаціях це зводиться до передбачення, але не обов'язково.

Математична причина класифікації нейронних мереж при класифікації - теорема універсального наближення . Що говорить про те, що нейронна мережа може наближати будь-яку безперервну функцію до реальної величини на компактному підмножині. Якість наближення залежить від кількості нейронів. Було також показано, що додавання нейронів у додаткові шари замість додавання їх до існуючих шарів покращує якість наближення швидше.

Додайте до цього недостатньо зрозумілу ефективність алгоритму зворотного розповсюдження , і у вас є налаштування, то можна насправді вивчити функцію, яку обіцяє UAT або щось близьке.


0

У нейронних мережах ми розглядаємо все у високому вимірі та намагаємось знайти гіперплан, який класифікує їх за допомогою невеликих змін ...

Напевно, важко довести, що це працює, але інтуїція говорить, що якщо це можна класифікувати, ви можете зробити це, додавши розслаблену площину і нехай рухається серед даних, щоб знайти локальний оптимум ...


0

За допомогою нейронних мереж ви просто класифікуєте дані. Якщо ви класифікували правильно, то ви можете робити майбутні класифікації.

Як це працює?

Прості нейронні мережі, такі як Perceptron, можуть проводити одну межу рішення для класифікації даних.

Наприклад, припустимо, що ви хочете вирішити просту І проблему за допомогою простої Нейронної мережі. У вас є 4 вибіркові дані, що містять x1 і x2 та весовий вектор, що містить w1 і w2. Припустимо, початковий вектор ваги становить [0 0]. Якщо ви зробили розрахунок, який залежить від алгоритму NN. Зрештою, у вас повинен бути ваговий вектор [1 1] або щось подібне.

введіть тут опис зображення

Будь ласка, зосередьтесь на графіці.

Це говорить: Я можу класифікувати вхідні значення на два класи (0 і 1). Гаразд. Тоді як я можу це зробити? Це занадто просто. Вхідні значення першої суми (x1 та x2).

0 + 0 = 0

0 + 1 = 1

1 + 0 = 1

1 + 1 = 2

Він говорить:

якщо сума <1,5, то її клас дорівнює 0

якщо сума> 1,5, то її клас дорівнює 1


0

Нейронні мережі відрізняються різними завданнями, але, щоб зрозуміти, чому саме це, може бути простіше прийняти певну задачу, наприклад класифікацію та зануритися глибше.

Простіше кажучи, методи машинного навчання вивчають функцію для передбачення, до якого класу належить певний вхід, залежно від минулих прикладів. Те, що виділяє нейронні мережі, полягає в їх здатності будувати ці функції, які можуть пояснити навіть складні зразки в даних. Серце нейронної мережі - це функція активації на зразок Relu, яка дозволяє їй намалювати основні межі класифікації, такі як:Приклад меж класифікації для Relu

Складаючи сотні таких Relus разом, нейронні мережі можуть створювати довільно складні межі класифікації, наприклад:введіть тут опис зображення

У цій статті я намагаюся пояснити інтуїцію того, що змушує працювати нейронні мережі: https://medium.com/machine-intelligence-report/how-do-neural-networks-work-57d1ab5337ce

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.