Перехресна перевірка, що виходить з виходу, як правило, не призводить до кращої продуктивності, ніж K-кратна, і, швидше за все, до гіршої , оскільки має відносно високу дисперсію (тобто її значення змінюється більше для різних зразків даних, ніж значення для k-кратна перехресна перевірка). Це погано в критерії вибору моделі, оскільки це означає, що критерій вибору моделі може бути оптимізований способами, які просто використовують випадкові зміни в конкретному зразку даних, а не вносять справжні покращення продуктивності, тобто ви, швидше за все, перевищуєте величину критерій вибору моделі. Причина перехресної валідації "відмову від виходу", яка використовується на практиці, полягає в тому, що для багатьох моделей її можна оцінити дуже дешево як побічний продукт відповідності моделі.
Якщо обчислювальні витрати не є передусім проблемою, кращим підходом є виконання повторної перехресної перевірки k-кратного перекладу, де процедура перехресної перевірки k-кратного повторюється з різними випадковими розділами на k нерозбірливі підмножини кожного разу. Це зменшує дисперсію.
Якщо у вас всього 20 моделей, велика ймовірність, що у вас виникне надмірна відповідність критерію вибору моделі, який є значно занедбаним недоліком у статистиці та машинному навчанні (безсоромний модуль: дивіться мою статтю з цієї теми). Можливо, вам буде краще вибрати порівняно просту модель і спробувати не оптимізувати її дуже агресивно, або застосувати байєсівський підхід і середній показник для всіх варіантів моделей, зважених на їх правдоподібність. Оптимізація IMHO є коренем усього зла в статистиці, тому краще не оптимізувати, якщо цього не потрібно, а оптимізувати з обережністю, коли це робити.
Зауважте також, що якщо ви збираєтеся виконати вибір моделі, вам потрібно використовувати щось на зразок вкладеної перехресної перевірки, якщо вам також потрібна оцінка ефективності (тобто вам слід розглянути вибір моделі як невід'ємну частину процедури підгонки моделі та перехресне підтвердження, що це так само).