Випадковий ліс - це, як правило, перекомпонування та тренування дерев рішень на вибірках, тому відповідь на ваше запитання потребує вирішення цих двох.
Повторне розміщення Bootstrap не є ліком для невеликих зразків . Якщо у вашому наборі даних всього двадцять чотири спостереження, то кожен із зразків, взятих із заміною з цих даних, буде складатися не більше ніж з двадцяти чотирьох чітких значень. Перемішання справ і не малювання деяких з них не дуже змінить вашу здатність дізнаватися щось нове про базовий розподіл. Тож невеликий зразок є проблемою для завантажувальної програми.
Дерева рішень тренуються шляхом умовного поділу даних на змінні предиктора, по одній змінній за часом, щоб знайти такі підпроби, які мають найбільшу дискримінаційну силу. Якщо у вас всього двадцять чотири випадки, то скажіть, що якби вам пощастило, і всі розколи були навіть за розміром, то з двома розщепленнями ви б закінчилися чотирма групами з шести випадків, з деревними розщепленнями, з вісьмома групами з трьох. Якщо ви обчислили умовні засоби на вибірках (для прогнозування постійних значень у деревах регресії чи умовних ймовірностей у деревах рішень), ви б базували свій висновок лише на цих кількох випадках! Таким чином, субпроби, які ви б використали для прийняття рішень, були б ще меншими, ніж ваші вихідні дані.
З невеликими зразками зазвичай розумно використовувати прості методи . Більше того, ви можете наздогнати невеликий зразок, скориставшись інформаційними пріорами в байєсівській обстановці (якщо у вас є якісь розумні знання про проблему, що не має даних), тож ви можете розглянути можливість використання іншої спеціальної байесівської моделі.