Наскільки я бачив, думки щодо цього зазвичай відрізняються. Найкраща практика, безумовно, диктує використання перехресної перевірки (особливо якщо порівнювати радіочастотні сигнали з іншими алгоритмами на тому ж наборі даних). З іншого боку, першоджерело зазначає, що обчислюється похибка OOB під час навчання моделі є достатньою для показника продуктивності тестового набору. Навіть Тревор Хасті в порівняно недавніх переговорах говорить, що "Випадкові ліси забезпечують безкоштовну перехресну перевірку". Інтуїтивно це має сенс для мене, якщо ви навчаєтесь і намагаєтесь покращити модель на основі РФ на одному наборі даних.
Яка ваша думка з цього приводу?