Фрідман, Хасті та Тібшірані (2010) , посилаючись на Елементи статистичного навчання , пишіть,
Ми часто використовуємо правило «одна стандартна помилка» під час вибору найкращої моделі; це підтверджує той факт, що криві ризику оцінюються помилково, тому помилки на стороні посиденьок.
Причина використання однієї стандартної помилки, на відміну від будь-якої іншої суми, здається, тому, що вона є, ну ... стандартною. Krstajic, et al (2014) пишуть (сміливий акцент міна):
Брейман та ін. [25] виявили у випадку вибору оптимального розміру дерева для класифікаційних моделей дерев, що розмір дерева з мінімальною помилкою перехресної перевірки генерує модель, яка, як правило, перевершує. Тому у розділі 3.4.3 їхньої книги Брейман та ін. [25] визначають одне стандартне правило про помилку (правило 1 SE) для вибору оптимального розміру дерева, і вони застосовують його у всій книзі. Для того, щоб обчислити стандартну похибку для однократної перехресної перевірки V-кратної точності, необхідно обчислити точність для кожного згину, а стандартна похибка обчислюється з точності V від кожної складки. Хасті та ін. [4] визначають правило 1 SE як вибір найбільш парсимоніальної моделі, помилка якої не більше однієї стандартної помилки вище помилки найкращої моделі, і вони пропонують в декількох місцях використовувати правило 1 SE для загального використання перехресної перевірки.Основним моментом правила 1 SE, з яким ми погоджуємось, є вибір найпростішої моделі, точність якої порівнянна з найкращою моделлю .
Припущення полягає в тому, що вибір однієї стандартної помилки є цілком евристичним, виходячи з того, що одна стандартна помилка зазвичай не велика щодо діапазону значень .λ