Скажіть, що алгоритм агностично дізнається над будь-яким розподілом, якщо для будь-якого він може з ймовірністю знайти функцію таку, що , заданий час і кількість зразків з , обмежених многочленом у та .
Запитання: Які класи функцій як відомо, агностічно вивчаються при довільних розподілах?
Жоден клас не надто простий! Я знаю, що навіть монотонні сполучники, як відомо, не можна засвоїти через довільні розподіли, тому я просто шукаю нетривіальні класи функцій.
Варто зазначити для непосвячених, що агностичне навчання орієнтоване на випадок, коли OPT (C, D)> 0 (тобто у вас неправильний клас гіпотез
—
Суреш Венкат
Гарна думка. У спеціальному випадку, коли OPT (C, D) = 0, це навчання PAC, і це набагато простіше. Для агностичного навчання гарантія повинна зберігатися незалежно від того, що таке OPT (C, D).
—
Аарон Рот
Існує також випадок "PAC w / Classification Noise", коли OPT (C, D)> 0, і, хоча у вас є правильний клас гіпотез (реалізація налаштування), є певна помилка, оскільки мітки випадково перегортаються через шум ... I Хочеться, щоб імена різних налаштувань були менш заплутаними.
—
Лев Рейзін
це звучить як агностичне навчання з верхньою межею на OPT (C, D)
—
Суреш Венкат
Не зовсім тому, що шум не допускається довільним у класифікаційній моделі шуму. Отже, якщо існувала якась змагальна модель шуму, яка ускладнювала навчання (або знаходження емпіричного мінімізатора ризику) в агностичній моделі, це може не часто зустрічатися в класифікаційній моделі шуму (тобто потрапляти в дельта-параметр PAC).
—
Лев Рейзін