Через теорему універсального наближення відомо, що нейронна мережа з навіть одним прихованим шаром і довільною функцією активації може наближати будь-яку безперервну функцію.
Які ще існують моделі, які також є універсальними аплікаторами функцій
Через теорему універсального наближення відомо, що нейронна мережа з навіть одним прихованим шаром і довільною функцією активації може наближати будь-яку безперервну функцію.
Які ще існують моделі, які також є універсальними аплікаторами функцій
Відповіді:
Це широко розглядається в статистичній літературі під темою регресії. Два стандартні посилання тут - книга Вассермана "вся непараметрична статистика" та "вступ Цибакова до непараметричної оцінки". Я коротко розповім про деякі стандартні речі та спробую дати покажчики поза статистикою (це поширена тема, і різні поля мають різні культури: довести різні види теорем, зробити різні припущення).
. Щоб зрозуміти різноманітність підходів тут, акуратним документом є "рівномірне наближення функцій Рахімі і Рехта до випадкових основ". Можливо, я повинен сказати, що прадідом усього цього є розширення Фур'є; про це є багато хорошого матеріалу в книзі Маллат про Вейвлетс.
(Деревні методи.) Ще один спосіб - дивитися на функцію як на дерево; на кожному рівні ви працюєте з деяким розділом домену і повертаєте, наприклад, середню точку. (Кожна обрізка дерева також дає перегородку.) За межею, тонкість цієї секції більше не дискретизує функцію, і ви її точно реконструювали. Як краще вибрати цей розділ - це складна проблема. (Ви можете переглянути Google у розділі "дерево регресії".)
(Поліноміальні методи; див. Також сплайни та інші методи інтерполяції.) За теоремою Тейлора ви знаєте, що ви можете довільно наблизитись до добре поведених функцій. Це може здатися дуже базовим підходом (тобто просто використовувати інтерполяційний поліном Лагранжа), але де цікаві речі - це вирішити, якийвказує на інтерполяцію. Це було широко досліджено в контексті числової інтеграції; ви можете знайти дивовижну математику за темами «квадратура Кленшоу-Кертіса» та «Квадратура Гаусса». Я кидаю це сюди, тому що види припущень та гарантій тут настільки кардинально відрізняються від тих, що з’являються вище. Мені подобається це поле, але ці методи дуже сильно страждають від прокляття розмірності, принаймні, я думаю, що саме тому вони менше обговорюються, ніж раніше (якщо ви чисельну інтеграцію з математикою, я думаю, що це квадратура для одновимірних доменів, але методи вибірки для багатоваріантних доменів).
Враховуючи різні обмеження для вашого функціонального класу, ви можете створити вищезазначене, щоб отримати всілякі інші широко використовувані сценарії. Наприклад, з булевими значеннями, значення порогу (1.) буде дуже схожим на оцінювач найближчого сусіда або SVM з якимось локальним ядром (гауссом). Багато з вищезазначених матеріалів страждає від прокляття розмірності (межі виявляють експоненціальну залежність від виміру). При машинному навчанні ви долаєте це або явно обмежуючи свій клас деяким сімейством (тобто "параметричними методами"), або неявним обмеженням, як правило, чимось, що стосується якості наближених до складності цільової функції (тобто аналога слабке припущення щодо навчання в стимулюванні).
(Ви запитували лише про класи функцій, але я вважав, що вас також цікавлять методи .. якщо ні .. ой)