Правила:
- один класифікатор на відповідь
- голосуйте, якщо ви згодні
- знижувати / видаляти дублікати.
- помістіть свою заявку в коментар
Правила:
Відповіді:
Регульований дискримінант за контрольовані проблеми із галасливими даними
Посилання на оригінал 1989 року по статті Фрідмана і ін тут . Також є дуже хороше пояснення Кунчевої у її книзі " Поєднання класифікаторів шаблону ".
Градієнт підсилює дерева.
Класифікатор Гауссового процесу - він дає імовірнісні прогнози (що корисно, коли ваші робочі відносні частоти класів відрізняються від таких у вашому навчальному наборі, або еквівалентні ваші помилково-позитивні / хибно-негативні витрати невідомі або змінні). Він також передбачає невизначеність невизначеності в прогнозуванні моделі через невизначеність при "оцінці моделі" з кінцевого набору даних. Функція ко-дисперсії еквівалентна функції ядра у SVM, тому вона також може працювати безпосередньо над невекторальними даними (наприклад, рядками або графіками тощо). Математична основа також акуратна (але не використовуйте наближення Лапласа). Автоматизований вибір моделі за рахунок максимальної граничної ймовірності.
По суті поєднує в собі хороші риси логістичної регресії та SVM.
L1-регульована логістична регресія.
K - означає кластеризацію для безконтрольного навчання.