Це насправді зводиться до однієї з технік "3B": пакування, підсилення або змішування.
У мішкуванні ви тренуєте багато класифікаторів на різних підмножинах об'єкта та комбінуєте відповіді в середньому для регресії та голосування для класифікації (є деякі інші варіанти складніших ситуацій, але я пропускаю це). Пропорція / відхилення голосів можна інтерпретувати як наближення помилок, оскільки окремі класифікатори зазвичай вважаються незалежними. РФ насправді - це ансамбль мішковин.
Підвищення - це більш широке сімейство методів, однак їх головним моментом є те, що ви будуєте наступний класифікатор на залишках колишнього, таким чином (теоретично) поступово збільшуючи точність, виділяючи все більш тонкі взаємодії. Таким чином, передбачення зазвичай поєднуються шляхом підсумовування їх, щось подібне до обчислення значення функції в x шляхом підсумовування значень елементів її ряду Тейлора для x.
Найбільш популярні версії - (стохастичний) градієнтний підсилювач (з приємною математичною основою) та AdaBoost (добре відомий, насправді конкретний випадок ГБ). З цілісної точки зору, дерево рішень - це стимулювання тривіальних класифікаторів.
Змішування - це ідея вкладення класифікаторів, тобто запуску одного класифікатора в інформаційній системі, що складається з прогнозів інших класифікаторів. Отже, це дуже мінливий метод і, безумовно, не визначений алгоритм; може знадобитися багато об'єктів (у більшості випадків класифікатор "блендера" повинен бути навчений на наборі об'єктів, які не використовувались для складання часткових класифікаторів, щоб уникнути незручного накладання).
Прогнози часткових класифікаторів, очевидно, поєднуються шляхом їх змішування в інформаційну систему, передбачену блендером.