Які алгоритми машинного навчання (крім SVM) використовують принцип структурної мінімізації ризиків ?
Які алгоритми машинного навчання (крім SVM) використовують принцип структурної мінімізації ризиків ?
Відповіді:
Принцип структурної мінімізації ризиків - це принцип, який хоча б частково "використовується" у всіх методах машинного навчання, оскільки надмірне оснащення часто слід враховувати: зменшення складності моделі - це (мабуть, і на практиці) - хороший спосіб обмеження оздоблення.
У SVM явно є параметр складності (розмірність простору функцій або навіть функція ядра), і це необхідно, оскільки підвищення складності є частиною алгоритму навчання.
Нейрональні мережі також мають простий показник їх складності (кількість "клітин") і є частиною пов'язаного алгоритму навчання.
Без цього принципу умовивід граматики був би і дурним, і досконалою граматикою є список усіх можливих слів, тому кожен нетривіальний алгоритм хоча б визнає цей принцип.
Дерева рішень мають своє поняття ентропії .
Кластери можуть бути просто перелічені або типу «використовувати» принцип власне або мати фіксовану кількість кластерів, і в такому випадку ви застосовуєте принцип на більш високому рівні.
Якщо бути чесним, я не знаю, що відбувається в генетичному програмуванні, але вони не мають власного поняття складності.
Я не знаю добре індуктивного логічного програмування, але, схоже, це не дуже добре відповідає цьому принципу.