[відредаговано 21.7.15 8:31 за CEST]
Я думаю, ви використовували RF для класифікації. Тому що в цьому випадку алгоритм виробляє повністю вирощені дерева з чистими кінцевими вузлами лише одного цільового класу.
predict(model, data=X_train)
Ця лінія кодування подібна до того, як собака переслідує [~ 66%] власного хвоста. Прогнозування будь-якого зразка тренувань - це клас самого навчального зразка. Для регресії РФ зупиняється, якщо в вузлі є 5 або менше зразків або якщо вузол чистий. Тут похибка прогнозування буде невеликою, але не 0%.
У машинному навчанні ми часто працюємо з великими просторами гіпотез. Це означає, що у структурі даних нашого навчального набору завжди буде багато фальсифікованих гіпотез / пояснень / моделей. У класичній статистиці простір гіпотез часто малий, тому пряма придатність моделі є інформативною відповідно до деякої припущеної теорії ймовірностей. При машинному навчанні пряма невідповідність стосується упередженості моделі. Зміщення - це «негнучкість» моделі. Це неу будь-якому разі забезпечують наближення потужності узагальнення (здатність передбачати нові події). Для алгоритмічних моделей крос-валідація є найкращим інструментом для наближення потужності узагальнення, оскільки не формулюється жодна теорія. Однак, якщо припущення щодо незалежного відбору зразків моделі не вдається, модель може взагалі бути марною, навіть якщо добре проведена перехресна перевірка запропонувала інше. Зрештою, найсильнішим доказом є задоволення передбачення кількості зовнішніх тестових наборів різного походження.
Назад до резюме: Позашляховик часто є загальноприйнятим типом резюме. Я особисто вважаю, що OOB-CV дає подібні результати, як і 5-кратний, але це дуже маленька неприємність. Якщо порівняти, скажімо, RF з SVM, то OOB-CV не є корисним, як ми зазвичай уникаємо пакетувати SVM. Натомість і SVM, і RF будуть вбудовані в абсолютно таку ж схему перехресної перевірки, наприклад, 10-кратні 10-повторення з відповідними розділами для кожного повтору. Будь-які особливості проектування особливо часто також потребують перехресної перевірки. Якщо для того, щоб все було в чистоті, весь реєстр даних може бути вбудований у резюме.
Якщо ви налаштуєте свою модель за допомогою тестового набору (або перехресної перевірки), ви знову завищуєте свій простір гіпотез, і перевірена ефективність прогнозування, ймовірно, занадто оптимістична. Натомість вам знадобиться набір калібрування (або калібрувальний цикл CV) для налаштування та тестовий набір перевірки (або цикл перевірки CV) для оцінки остаточної оптимальної моделі.
У крайньому сенсі, оцінка вашої перевірки буде неупередженою лише у тому випадку, якщо ви ніколи не будете діяти на цей результат, коли побачите його. Це парадокс валідації, бо чому б ми отримали знання, які є істинними лише тоді, коли ви не будете діяти на ньому. На практиці громада охоче приймає певні упередження щодо публікацій, де ті дослідники, які випадково отримали надто оптимістичну валідацію, більше схильні до публікації, ніж ті, хто, на жаль, не надто песимістичний. Тому іноді чому не можна відтворити інші моделі.