У випадковому лісі кожне дерево вирощується паралельно на унікальній вибірці даних для завантаження. Оскільки, як очікується, кожен зразок завантаження може містити близько 63% унікальних спостережень, це залишає приблизно 37% спостережень, які можна використовувати для тестування дерева.
Тепер, здається, що в Stohastic Gradient також існує аналогічна оцінці в РФ:
Якщо встановлено, що розміщення фракції сумки перевищує 0 (рекомендується 0,5), gbm обчислює оцінку покращення прогнозованих показників. Він оцінює зменшення відхилення для тих спостережень, які не використовуються при виборі наступного дерева регресії.
Джерело: Ridgeway (2007) , розділ 3.3 (стор. 8).
У мене проблеми з розумінням того, як це працює / чи дійсно. Скажіть, я додаю дерево в послідовності. Я вирощую це дерево на випадковій вибірці оригінального набору даних. Я міг би протестувати це єдине дерево на спостереженнях, які не використовувались для його вирощування. Домовились. Але , оскільки підсилення є послідовним, я скоріше використовую всю послідовність дерев, побудованих до цих пір, щоб передбачити ці залишені спостереження. І є велика ймовірність, що багато попередніх дерев вже бачили ці спостереження. Тож модель насправді не тестується на кожному раунді на небачених спостереженнях, як у РФ, так?
Отже, як це називається оцінка помилки "поза мешком"? Мені це не здається "поза" жодної сумки, оскільки спостереження вже були помічені?