Прочитавши ще раз це запитання, я можу дати вам наступний зв’язок:
Припускаю , зразки малюються IID, розподіл є фіксованим, і втрата обмежена , то з ймовірністю принаймні 1 - б ,
Е [ Е ( ч ) ] ≤ Е ( ч ) + B √Б1 - δ
Е [ Е( h ) ] ≤ E^( h ) + B журнал1δ2 м-----√
де - розмір вибірки, а 1 - δ - достовірність. Межа тривіально дотримується нерівності МакДіарміда.м1 - δ
є розміром вибірки, Е [ Е ( ч ) ] є помилкою узагальнення і Е ( ч ) є тест помилками для гіпотези.мЕ [ Е( год ) ]Е^( год )
Будь ласка, не повідомляйте лише про помилку перехресної перевірки, ані про помилку тесту, вони взагалі безглузді, оскільки вони є лише бальними оцінками.
Стара публікація для запису:
Я не впевнений, що я цілком зрозумів ваше запитання, але я поцікавлюся його.
По-перше, я не впевнений, як би ви визначили інтервал прогнозування для вибору моделі, оскільки, наскільки я розумію, інтервали прогнозування роблять деякі припущення щодо розподілу. Натомість ви можете отримати нерівності концентрації, які по суті зв'язали випадкову величину за її дисперсією на деяку ймовірність. Нерівності концентрації використовуються за допомогою машинного навчання, включаючи вдосконалену теорію для стимулювання. У цьому випадку ви хочете пов'язати помилку узагальнення (помилку взагалі, бали, яку ви не бачили) своєю емпіричною помилкою (вашою помилкою на тестовому наборі), а також деяким терміном складності та терміном, що стосується дисперсії.
Тепер мені потрібно розвіяти непорозуміння щодо перехресної перевірки, що є надзвичайно поширеним. Перехресне підтвердження дасть вам лише неупереджену оцінку очікуваної помилки моделі ДЛЯ ФІКСОВАНОГО ЗІБУ РОЗМІРУ. Доказом цього є лише протокол відпустки. Це насправді досить слабко, оскільки не дає інформації про дисперсію. З іншого боку, перехресне підтвердження поверне модель, близьку до рішення щодо мінімізації структурних ризиків, що є теоретично найкращим рішенням. Ви можете знайти доказ у додатку тут: http://www.cns.nyu.edu/~rabadi/resources/scat-150519.pdf
Тож як вивести зв'язане узагальнення? (Пам'ятайте, що обмеження узагальнення - це в основному інтервал передбачення щодо помилки узагальнення для конкретної моделі). Ну, ці межі є алгоритмом. На жаль, є лише один підручник, який встановлює межі для всіх часто використовуваних алгоритмів в машинному навчанні (включаючи підвищення стимуляції). Книга - Основи машинного навчання (2012) Мохрі, Ростамізаде та Талвалкара. Слайди лекцій, які висвітлюють матеріал, ви можете знайти на веб-сторінці Морі: http://www.cs.nyu.edu/~mohri/ml14/
Хоча Елементи статистичного навчання є важливою і дещо корисною книгою, вона не дуже сувора, і вона опускає багато дуже важливих технічних деталей щодо алгоритмів і повністю опускає будь-які межі узагальнення. Основи машинного навчання - це найповніша книга для машинного навчання (що має сенс бачити так, як її написали одні з найкращих у цій галузі). Однак підручник вдосконалений, тому просто остерігайтесь технічних деталей.
Узагальнені межі для підвищення можна знайти (із підтвердженням) тут: http://www.cs.nyu.edu/~mohri/mls/lecture_6.pdf
Я сподіваюсь, що цих покажчиків достатньо, щоб відповісти на ваше запитання. Я вагаюсь у тому, щоб дати повну відповідь, бо знадобиться близько 50 сторінок, щоб переглянути всі необхідні деталі, не кажучи вже про попередні обговорення ...
Удачі!