Інтуїтивне пояснення алгоритму AdaBoost
Дозвольте мені побудувати на чудовій відповіді @ Рандела з ілюстрацією наступного моменту
- В Adaboost "недоліки" визначаються за великими точками даних
Резюме AdaBoost
Гм( Х ) м = 1 , 2 , . . . , М
G ( x ) = знак ( α1Г1( x ) + α2Г2( х ) + . . . αМГМ( x ) ) = знак ( ∑m = 1МαмГм( х ) )
AdaBoost на прикладі іграшки
М= 10
Візуалізація послідовності слабких учнів та вибіркової ваги
m = 1 , 2 ... , 6
Перша ітерація:
- Межа прийняття рішення дуже проста (лінійна), оскільки це учні, які навчаються
- Всі бали однакового розміру, як і очікувалося
- 6 синіх точок знаходяться в червоній області та є класифікованими
Друга ітерація:
- Межа лінійного рішення змінилася
- Раніше неправильно класифіковані сині точки тепер більше (більша маса зразка) та вплинули на межу прийняття рішення
- 9 синіх точок зараз неправильно класифікуються
Кінцевий результат після 10 ітерацій
αм
([1.041, 0.875, 0.837, 0.781, 1,04, 0,938 ...
Як і очікувалося, перша ітерація має найбільший коефіцієнт, оскільки саме вона має найменші помилки.
Наступні кроки
Інтуїтивне пояснення збільшення градієнта - буде завершено
Джерела та подальше читання: