Як часто зустрічається в деяких алгоритмах машинного навчання, Boosting підлягає компромісії з ухилом відхилення щодо кількості дерев. Якщо говорити про це, то це говорить про те, що: (i) слабкі моделі, як правило, мають велику упередженість та низьку дисперсію: вони занадто жорсткі, щоб захопити мінливість у навчальному наборі даних, тому також не будуть добре працювати в тестовому наборі (високий тест помилка) (ii) дуже сильні моделі, як правило, мають низький ухил і велику дисперсію: вони занадто гнучкі і вони переповнюють навчальний набір, тому в тестовому наборі (оскільки точки даних відрізняються від навчального набору) вони також не будуть добре працювати (висока помилка тесту)
Концепція розширення дерев - починати з неглибоких дерев (слабких моделей) і продовжувати додавати більше дрібних дерев, які намагаються виправити попередні слабкості дерев. Під час цього процесу помилка тесту має тенденцію до зменшення (оскільки загальна модель стає більш гнучким / потужним). Однак якщо ви додасте занадто багато цих дерев, ви почнете переробляти дані тренувань, і тому помилка тесту збільшується. Перехресне підтвердження допомагає знайти солодке місце