Запитання з тегом «lg.learning»

Теорія машинного навчання та навчання: навчання PAC, алгоритмічна теорія навчання та обчислювальні аспекти байєсівських умовиводів та графічних моделей.

1
Мінімізація залишкових автоматів кінцевого стану
Залишкові автомати з кінцевим станом (RFSA, визначені в [DLT02]) - це NFA, які мають деякі приємні риси, спільні з DFA. Зокрема, завжди існує канонічний RFSA мінімального розміру для кожної звичайної мови, і мова, визнана кожним штатом в RFSA, є залишковою, як і в DFA. Однак, хоча мінімальні стани DFA утворюють …

1
Вартість запиту на еквівалентність для DFA
Натхненний цим питанням , мені цікаво таке: Яка найгірша складність перевірки того, чи приймається дана DFA тією ж мовою, що й заданий регулярний вираз? Це відомо? Будемо сподіватися, що ця проблема є в P - що існує поліном алгоритму розміром обох.

2
Оцінка VC-розмірності
Що відомо про наступну проблему? Давши колекцію функцій , знайдіть найбільшу підколекцію урахуванням обмеження, яке VC-розмір для деяке ціле .CCCf:{0,1}n→{0,1}f:{0,1}n→{0,1}f:\{0,1\}^n\rightarrow\{0,1\}S⊆CS⊆CS \subseteq C(S)≤k(S)≤k(S) \leq kkkk Чи є алгоритми наближення або результати твердості для цієї проблеми?

5
алгоритм кластеризації невимірних даних
У мене є набір даних тисяч точок і засіб вимірювання відстані між будь-якими двома точками, але точки даних не мають розмірності. Я хочу, щоб алгоритм знаходив центри кластерів у цьому наборі даних. я уявляю, що оскільки дані не мають розмірів, центр кластера може складатися з декількох точок даних і допуску, …

2
Складність обчислювального запиту SQ-навчання
Відомо, що для навчання PAC існують природні класи концепцій (наприклад, підмножини списків рішень), для яких існують поліноміальні розриви між складністю вибірки, необхідною для теоретичного інформаційного навчання, який обчислюється без обмежень, і складності вибірки, необхідної полінома- час, що навчається. (див., наприклад, http://portal.acm.org/citation.cfm?id=267489&dl=GUIDE або http://portal.acm.org/citation.cfm?id=301437 ) Ці результати, схоже, залежать від кодування …

1
Враховуючи , знайдіть підпункт з великим обсягом і великим середнім значенням
Ось проблема з подібним ароматом до вивчення хунтів: Вхід: Функція , представлена ​​оракул членства, тобто оракул, який дав , повертає .f:{0,1}n→{−1,1}f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\}xxxf(x)f(x)f(x) Мета: Знайти подкуба з з об'ємом така , що . Ми припускаємо, що такий субкуб існує.SSS{0,1}n{0,1}n\{0,1\}^n|S|=2n−k|S|=2n−k|S|=2^{n-k}|Ex∈Sf(x)|≥0.1|Ex∈Sf(x)|≥0.1\left|\mathbb{E}_{x \in S} f(x) \right| \ge 0.1 Легко отримати алгоритм, який …

1
Низькі межі / твердість шумових паритетів (LWE)
Деякі відомості: Мені цікаво знайти "менш відомі" нижчі межі (або результати твердості) для проблеми "Навчання з помилками" (LWE) та їх узагальнення на зразок навчання з помилками над кільцями. Для конкретних визначень тощо, ось приємне опитування Регева: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf Стандартний тип припущення (R) стилю LWE - це через (можливо, квантове) скорочення до …

1
Нижні межі для вивчення в запиті про членство та моделі контрприкладу
Dana Angluin ( 1987 ; pdf ) визначає модель навчання із запитами про членство та теоретичними запитами (контрприклади запропонованій функції). Вона показує, що звичайна мова, яка представлена ​​мінімальною DFA з станів, вивчається в поліноміальний час (де пропоновані функції - DFA) з O ( m n 2 ) запитами членства та …

2
Будь-які класи гіпотез, окрім паритету в шумному PAC, але не в SQ?
Angluin and Laird ('88) формалізували навчання з випадково пошкодженими даними у моделі "PAC з випадковим класифікаційним шумом" (або шумним PAC). Ця модель аналогічна PAC навчання , для етикеток прикладів , наведених до студентів за винятком того, були пошкоджені (перевернуто), незалежно один від одного випадковим чином , з імовірністю .η&lt;1/2η&lt;1/2\eta < …

2
Кластеризація форматизації, відмінна від K-засобів, для роздільних даних
Дані реального світу іноді мають природну кількість кластерів (спроба класифікувати їх у кількість кластерів, менших за якийсь магічний k, спричинить різке збільшення вартості кластеризації). Сьогодні я відвідав лекцію доктора Адама Майєрсона, і він назвав цей тип даних "відокремленими даними". Які існують формалізації кластеризації, крім K-засобів, які можуть бути піддані алгоритмам …

3
Навчання за допомогою «мовчазних» оракул
Моє запитання трохи загальне, тому я складаю приємну історію, щоб її виправдати. Візьміть мене зі собою, якщо це не реально ;-) Історія Містер Х, начальник відділу комп'ютерної безпеки великої компанії, трохи параноїчний: він вимагає, щоб усі працівники міняли свої паролі раз на місяць, щоб мінімізувати ризики крадіжок особи або інформації. …

1
Агностичне навчання за довільними розподілами
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in Cerr(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Скажіть, що алгоритм агностично дізнається над будь-яким розподілом, якщо для будь-якого він може з ймовірністю знайти функцію таку, що , заданий час і кількість зразків з , обмежених многочленом у та .AAACCCDDD2/32/32/3ffferr(f,D)≤OPT(C,D)+ϵerr(f,D)≤OPT(C,D)+ϵerr(f,D) \leq …

3
Правильна межа PAC навчання VC
Добре відомо, що для концептуального класу СC\mathcal{C} з розмірністю VC гdd достатньо отримати Виведення ( дεжурнал1ε)O(dεlog⁡1ε)O\left(\frac{d}{\varepsilon}\log\frac{1}{\varepsilon}\right)мічені приклади до PAC дізнатисяСC\mathcal{C}. Мені незрозуміло, чи алгоритм навчання PAC (який використовує ці багато зразків) є правильним чи неправильним? У підручниках Кірнса і Вазірані, а також Ентоні і Біггса здається, що алгоритм навчання PAC …

1
Питання щодо паритетності
Давайте визначимо клас функцій над набором біт. Зафіксуйте два розподіли p , q , які "розумно" відрізняються один від одного (якщо вам подобається, їх змінна відстань принаймні ϵ , або щось подібне).nnnp,qp,qp, qϵϵ\epsilon Тепер кожна функція у цьому класі визначається колекцією k індексів S і оцінюється так: Якщо парність обраних …

2
Вступні ресурси з теорії обчислювального навчання
Нещодавно я читав пристойну кількість статей CoLT. Хоча я не борюся з окремими роботами (принаймні, не більше, ніж я зазвичай борюся з іншими теоретичними документами), я не відчуваю, що я добре розумію цю сферу в цілому. Чи є стандартний текст, опитування чи конспекти лекцій для введення CoLT на рівні випускників? …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.