Випадковий ліс (РФ) створюється ансамблем дерев рішень (DT). За допомогою пакетування кожен DT навчається в різному наборі даних. Отже, чи є спосіб впровадження он-лайн випадкового лісу шляхом додавання більшої кількості рішень для нових даних?
Наприклад, ми маємо 10К зразків і навчаємо 10 ДТ. Потім ми отримуємо зразки 1К, і замість того, щоб знову тренувати повний РФ, ми додаємо новий DT. Прогнозування зараз виконується середнім байєсівським значенням 10 + 1 DT.
Крім того, якщо ми збережемо всі попередні дані, нові DT можуть бути навчені головним чином за новими даними, де ймовірність відбору зразка зважується залежно від того, скільки разів вже відібрано.