Запитання з тегом «vc-dimension»

1
Що таке розмір VC дерева рішень?
Який розмір VC дерева рішень з k розбивається на два виміри? Скажімо, модель CART, і єдині дозволені розколи паралельні осям. Отже, за один розкол ми можемо замовити 3 бали в трикутнику, а потім для будь-якого маркування точок ми могли б отримати ідеальний прогноз (тобто: розбиті точки) А як щодо 2-х …

2
Які альтернативи VC-виміру для вимірювання складності нейронних мереж?
Я натрапив на кілька основних способів вимірювання складності нейронних мереж: Наївні та неформальні: підраховують кількість нейронів, прихованих нейронів, шарів чи прихованих шарів VC-вимір (Eduardo D. Sontag [1998] "VC-розмір нейронних мереж" [ pdf ].) ОбчислювальнаТС0гТСг0TC^0_d та асимптотична обчислювальна складність вимірювання за еквівалентністю . Чи є інші альтернативи? Краще: Якщо показник складності …

1
Що означає розмір VC про глибоке навчання?
У базовому машинному навчанні нас навчають наступним "правилам": a) розмір ваших даних повинен бути щонайменше в 10 разів більший за розмір VC вашого набору гіпотез. б) нейронна мережа з N з'єднаннями має розмір VC приблизно N. Отже, коли нейрональна мережа глибокого навчання має, скажімо, мільйони одиниць, чи це означає, що …

2
VC розмірність регресійних моделей
У серії лекцій « Навчання з даних» професор зазначає, що розмір ВК вимірює складність моделі на те, скільки точок може зруйнувати дана модель. Тож це прекрасно спрацьовує для моделей класифікації, де ми могли б сказати, що немає N точок, якщо класифікатор здатний ефективно зруйнувати k точки, вимірювання розміру VC було …

3
Чому важливий вимір ВК?
У Вікіпедії сказано, що: Вимір VC - це кардинальність найбільшого набору точок, який алгоритм може зруйнувати. Наприклад, лінійний класифікатор має кардинальність n + 1. Моє запитання, чому нас хвилює? Більшість наборів даних, на яких ви робите лінійну класифікацію, мають тенденцію до дуже великих розмірів і містять багато точок.

1
Межі узагальнення на SVM
Мене цікавлять теоретичні результати щодо узагальнення здатності підтримуючих векторних машин, наприклад, межі щодо ймовірності помилки класифікації та розмірності Вапніка-Червоненкіса (ВК) цих машин. Однак, читаючи літературу, у мене склалося враження, що деякі подібні повторювані результати, як правило, незначно відрізняються від автора до автора, особливо щодо технічних умов, необхідних для певного виконання. …

2
Обчислення VC-виміру нейронної мережі
Якщо у мене є якась фіксована непотокована (DAG) топологія (фіксований набір вузлів і ребер, але алгоритм навчання може змінювати вагу по краях) сигмовидних нейронів з вхідними нейронами, які можуть приймати рядки лише в як вхідний і веде до одного виходу (що виводить реальне значення, яке ми округляємо до 1 або …

1
VC-розмір k-найближчого сусіда
Що таке VC-розмір алгоритму k-найближчого сусіда, якщо k дорівнює кількості використовуваних навчальних балів? Контекст: Це питання мені задавали в ході я взяв курс, і відповідь дано було 0. Я все ж не розумію, чому це так. Моя інтуїція полягає в тому, що VC-розмір повинен бути 1, тому що слід мати …

3
VC розмір прямокутника
У книзі "Вступ до машинного навчання" Етема Альпайдіна зазначено, що розмір VC прямокутника, орієнтованого на вісь, дорівнює 4. Але як можна прямокутник розбити набір із чотирьох колінеарних точок з чергуванням позитивних та негативних точок ?? Чи може хтось пояснити та довести розмір ВК прямокутника?
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.