Звичайно, різниця непомітна, і це стосується мого питання - чи можна придумати приклад, коли результат одного типу суттєво відрізняється від іншого?
Я зовсім не впевнений, що різниця непомітна, і що лише у спеціальному прикладі це буде помітно. Як методи перехресної перевірки, так і методи завантаження (підвідбірки) критично залежать від їхніх проектних параметрів, і це розуміння ще не повне. Взагалі результати в перехресній валідації k-кратно залежать критично від кількості складок, тому ви можете очікувати, що результати завжди відрізняються від результатів, які ви б спостерігали при підборі вибірки.
Справа в суті: скажіть, що у вас справжня лінійна модель з фіксованою кількістю параметрів. Якщо ви використовуєте k-кратну перехресну валідацію (із заданим, фіксованим k) і нехай кількість спостережень переходить до нескінченності, k-кратна перехресна перевірка буде асимптотично невідповідною для вибору моделі, тобто вона виявить неправильну модель з ймовірність більша за 0. Цей дивовижний результат зумовлений Джуном Шао, "Лінійний вибір моделі шляхом перехресної валідації", Журнал Американської статистичної асоціації , 88 , 486-494 (1993), але в цьому руслі можна знайти більше робіт.
Загалом, респектабельні статистичні документи задають протокол перехресної перевірки саме тому, що результати не є інваріантними. У випадку, коли вони вибирають велику кількість складок для великих наборів даних, вони зауважують та намагаються виправити ухили у виборі моделі.