Під час обчислювального навчання теорема NFL стверджує, що не існує універсального учня. Для кожного алгоритму навчання існує розподіл, який обумовлює виведення учням гіпотезу з великою помилкою, з високою ймовірністю (хоча гіпотез помилок низький). Висновок полягає в тому, що для того, щоб навчитися, клас гіпотезу або розподіли повинні бути обмежені. У своїй книзі "Імовірнісна теорія розпізнавання образів" Devroye та ін доказують наступну теорію для K-найближчих сусідів, які навчаються:
Де