Обчислювальне навчання, точніше, напевно, приблизно правильна ( PAC ) рамка, дає відповіді на запитання на зразок: скільки прикладів навчання потрібно, щоб учень з великою часткою ймовірності здобув хорошу гіпотезу? скільки обчислювальних зусиль мені потрібно з великою часткою ймовірності засвоїти такій гіпотезі? Це не стосується конкретного класифікатора, з яким ви працюєте. Йдеться про те, що можна, а що не можна навчитися з деякими зразками.
У теорії статистичного навчання ви, скоріше, відповідаєте на подібні запитання: скільки навчальних зразків класифікатор буде класифікувати, перш ніж він перейде до гарної гіпотези? тобто наскільки важко тренувати класифікатор і які гарантії я маю щодо його продуктивності?
На жаль, я не знаю джерела, де ці дві області описуються / порівнюються уніфіковано. І все-таки хоч і не дуже сподіваюся, що це допомагає