Це питання вирішено в цій дуже приємній публікації. Будь ласка, подивіться на це та посилання на нього. http://fastml.com/what-is-better-gradient-boosted-trees-or-random-forest/
Зауважте в статті, що говорить про калібрування, та посилання на іншу (приємну) публікацію про це. Все-таки я вважаю, що стаття Отримання каліброваних ймовірностей під час підвищення дає змогу краще зрозуміти, що таке калібрування в контексті збільшених класифікаторів і які є стандартними методами його виконання.
І нарешті, один аспект відсутній (трохи більш теоретичний). І RF, і GBM - це ансамблеві методи, тобто ви створюєте класифікатор із великої кількості менших класифікаторів. Тепер принципова відмінність полягає у використаному методі:
- РФ використовує дерева рішень, які дуже схильні до надмірного розміщення. Для досягнення більшої точності РФ вирішує створити велику їх кількість на основі мішки . Основна ідея - переупорядкувати дані знову і знову, і для кожного зразка тренуйте новий класифікатор. Різні класифікатори по-різному доповнюють дані, і шляхом голосування ці відмінності усереднюються.
- ГБМ - це стимулюючий метод, який базується на слабких класифікаторах . Ідея полягає в тому, щоб заздалегідь додати класифікатор, щоб наступний класифікатор навчався для вдосконалення вже навченого ансамблю. Зауважте, що для РЧ кожна ітерація класифікатора готується незалежно від решти.