Для продовження відповіді Дейго, стандартні межі складності вибірки з теорії навчання говорять вам, що якщо ви задоволені тим, що знайдете програму, яка є "приблизно правильною", вам взагалі не потрібно намагатися дуже багато балів. Скажімо, ми кодуємо програми у двійковій формі, так що є лише програми довжини d. Давайте припустимо також , що існує деякий розподіл по вхідних прикладів D . Можливо, ваша мета - знайти програму, для якої ви впевнені, що майже вірна ("Можливо, приблизно коректна", тобто як у моделі навчання Valiants PAC). Тобто ви хочете запустити алгоритм, який займе невелику кількість вибірок x ∼ D разом з f ( x )2dDx∼Df(x)І буде з ймовірністю , щонайменше вихідний яка - то програма P , яка збігається з F , щонайменше, ( 1 - е ) частки входів , взятих з D . (1−δ)Pf(1−ϵ)D
Ми просто намалюємо приклади x ∼ D та виведемо будь-яку програму P довжиною ≤ d, яка відповідає всім прикладам f . (Одне гарантовано існує, оскільки ми припускаємо, що f має складність Колмогорова не більше г ) ...mx∼DP≤dffd
Яка ймовірність того, що певна програма яка не погоджується з f на більш ніж ϵ частці прикладів, відповідає m обраним нами прикладам? Це не більше ( 1 - ϵ ) м . Ми хотіли б, щоб ця ймовірність була не більше δ / 2 d, щоб ми могли взяти союз, пов'язаний над усімPfϵm(1−ϵ)mδ/2dпрограмами 2 d , і сказати, що з вірогідністю принаймні 1 - δ жодна "погана" програма не відповідає нашим накресленим прикладам . Розв’язуючи, ми бачимо, що достатньо взяти лише
m ≥ 12d1−δ
приклади. (тобто лише лінійно багато в складності Колмогорова f ...)
m≥1ϵ(d+log1/δ)
f
До речі, подібні аргументи можуть бути використані для обгрунтування "бритви Оккама": з огляду на фіксовану кількість спостережень, серед усіх теорій, що їх пояснюють, слід вибрати ту, що має найменшу складність Колмогорова, оскільки є найменший шанс на перевищення.
Звичайно, якщо ви хочете перевірити єдину фіксовану програму таким чином, вам потрібен лише приклади ( 1 / δ ) / ϵ ) ...O(log(1/δ)/ϵ)