Ви кажете, що алгоритм: k-найближчий алгоритм сусіда з k = кількість використаних навчальних балів. Я визначаю це як jms-k-найближчий-сусід .
Оскільки розмір ВК - це найбільша кількість навчальних точок, які можуть бути зруйновані алгоритмом з помилкою поїзда 0, то розмір VC jms-k-найближчий-сусід може бути лише k або 0.
1 навчальний екземпляр => k = 1: Під час навчання jms-1-найближчий-сусід зберігає саме цей екземпляр. Під час застосування на абсолютно одному навчальному наборі один екземпляр є найближчим до збереженого навчального екземпляра (оскільки вони однакові), тому помилка тренування дорівнює 0.
Тож я згоден, розмір ВК - принаймні 1.
2 навчальних екземпляра => k = 2: Проблема може виникнути лише в тому випадку, якщо мітки відрізняються. У цьому випадку питання полягає в тому, як приймається рішення для етикетки класу. Більшість голосів не призводить до результату (VC = 0?), Якщо ми використовуємо мажоритарний голос, зважений у зворотному відстані, розмір VC дорівнює 2 (якщо припустити, що не дозволяється мати один і той же навчальний екземпляр двічі з різними мітками, у тому, що у випадку, коли розмір VC всіх алгоритмів буде 0 (я думаю).
Немає стандартного k-найближчого алгоритму сусіда, це більше сімейство з однаковою базовою ідеєю, але різними смаками, що стосується деталей реалізації.
Використовувані ресурси: слайди розмірної напруги Ендрю Мура