Якщо ми розглянемо повне вирощене дерево рішень (тобто дерево без рішення), воно має велику дисперсію та низький ухил.
Баггінг та випадкові ліси використовують ці моделі з високою дисперсією та агрегують їх, щоб зменшити дисперсію та, таким чином, підвищити точність прогнозування. І Baging, і випадкові ліси використовують вибірку Bootstrap, і як описано в «Елементах статистичного навчання», це збільшує упередженість в одному дереві.
Крім того, оскільки метод Random Forest обмежує дозволені змінні поділу на кожен вузол, зміщення для одного випадкового лісового дерева збільшується ще більше.
Таким чином, точність прогнозування лише збільшується, якщо збільшення зміщення поодиноких дерев у Багги та Довільних Лісах не «затьмарить» зменшення дисперсії.
Це призводить мене до двох наступних питань: 1) Я знаю, що при вибірці завантажувальної програми ми (майже завжди) матимемо однакові спостереження у вибірці завантажувальної програми. Але чому це призводить до збільшення упередженості окремих дерев у Багги / Випадкових Лісах? 2) Крім того, чому обмеження наявних змінних на поділ у кожному розрізі призводить до більшого зміщення окремих дерев у випадкових лісах?