Запитання з тегом «machine-learning»

Теоретичні питання машинного навчання, особливо теорії обчислювального навчання, включаючи алгоритмічну теорію навчання, навчання PAC та байєсівські умовиводи

1
Агностичне навчання за довільними розподілами
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in Cerr(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Скажіть, що алгоритм агностично дізнається над будь-яким розподілом, якщо для будь-якого він може з ймовірністю знайти функцію таку, що , заданий час і кількість зразків з , обмежених многочленом у та .AAACCCDDD2/32/32/3ffferr(f,D)≤OPT(C,D)+ϵerr(f,D)≤OPT(C,D)+ϵerr(f,D) \leq …

3
Правильна межа PAC навчання VC
Добре відомо, що для концептуального класу СC\mathcal{C} з розмірністю VC гdd достатньо отримати Виведення ( дεжурнал1ε)O(dεlog⁡1ε)O\left(\frac{d}{\varepsilon}\log\frac{1}{\varepsilon}\right)мічені приклади до PAC дізнатисяСC\mathcal{C}. Мені незрозуміло, чи алгоритм навчання PAC (який використовує ці багато зразків) є правильним чи неправильним? У підручниках Кірнса і Вазірані, а також Ентоні і Біггса здається, що алгоритм навчання PAC …

2
Вступні ресурси з теорії обчислювального навчання
Нещодавно я читав пристойну кількість статей CoLT. Хоча я не борюся з окремими роботами (принаймні, не більше, ніж я зазвичай борюся з іншими теоретичними документами), я не відчуваю, що я добре розумію цю сферу в цілому. Чи є стандартний текст, опитування чи конспекти лекцій для введення CoLT на рівні випускників? …

3
Ресурс / книга для останніх досягнень теорії статистичного навчання
Я досить знайомий з теорією VC-Dimension, але зараз я дивлюся на останні (останні 10 років) досягнення в галузі теорії статистичного навчання: (місцеві) середні показники Rademacher, лема кінцевого класу Массарта, покриття чисел, ланцюжок, Дадлі Теорема, псевдомірність, розмір руйнування жирів, номери упаковки, склад радімахера та, можливо, інші результати / інструменти, про які …

1
Нижня межа агностичного PAC вибірки
Загальновідомо, що для класичного навчання PAC приклади необхідні для того, щоб отримати помилку, пов'язану з ε whp, де d - розмірність VC класу концепції.Ω ( d/ ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonгdd Чи відомо, що приклади потрібні у випадку агностики?Ω ( d/ ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)

1
Які класифікатори машинного навчання є найбільш паралельними?
Які класифікатори машинного навчання є найбільш паралельними? Якщо б у вас була складна проблема класифікації, обмежений час, але гідна локальна мережа комп'ютерів для роботи, які класифікатори ви б спробували? З іншого боку, мені здається, що це якихось стандартних класифікаторів, про які я знаю, як описано нижче, але я можу бути …

5
Які хороші посилання щодо розуміння навчання в Інтернеті?
Зокрема, я прошу ресурси, щоб дізнатися про системи машинного навчання, які можуть оновлювати свої відповідні мережі (або аналогічні) під час роботи. Я навіть натрапив на декілька, хоча я не зміг їх зробити закладкою. Як ви можете собі уявити, пошук в Інтернеті - це досить складна тема.

5
Чи можна нейронні мережі використовувати для розробки алгоритмів?
Після новіших і новіших успіхів нейронних мереж в іграх у настільні ігри відчувається, що наступна мета, яку ми поставимо, може стати чимось кориснішим, ніж побиття людей у ​​Starcraft. Точніше, я задумався, чи Чи можуть нейронні мережі навчатись вирішувати класичні алгоритмічні задачі? Тут я маю в виду , що, наприклад, мережа …

2
Теоретичні результати для випадкових лісів?
Випадкові ліси користуються репутацією серед практикуючих, що входять до складу найефективніших методів класифікації. Але в навчально-теоретичній літературі ми не стикаємося з ними, звідки я припускаю відсутність глибоких теоретичних результатів. Якби хтось хотів заглибитися в цю теорію, з чого б почати?

1
VC розмірність клітин Вороного в R ^ d?
Припустимо, у мене є балів у . Вони індукують діаграму Вороного. Якщо я призначу кожній з точок мітку , вони індукують двійкову функцію на . Запитання: який розмір VC всіх таких можливих бінарних функцій викликаний деякими точками та деяким маркуванням цих точок?кkkRгRd\mathbb{R}^dкkk±±\pmRгRd\mathbb{R}^dкkk

1
Навчання з (підписаними) помилками
Background––––––––––––––Background_\underline{\bf Background} У 2005 р. Регев [1] представив проблему «Навчання з помилками» (LWE), узагальнення проблеми паритету навчання з помилкою. Припущення про твердість цієї проблеми для певного вибору параметрів тепер лежить в основі доказів безпеки для безлічі постквантових криптосистем у сфері криптографії на основі ґратки. Нижче описані "канонічні" версії LWE. Попередні …

2
VC-розмір сфер у 3 вимірах
Я шукаю розмір VC наступної набору. Всесвіт U={p1,p2,…,pm}U={p1,p2,…,pm}U=\{p_1,p_2,\ldots,p_m\} такий як U⊆R3U⊆R3U\subseteq \mathbb{R}^3. У встановленій системіRR\mathcal{R} кожен набір S∈RS∈RS\in \mathcal{R} відповідає сфері в R3R3\mathbb{R}^3 такий, що набір SSS містить елемент в UUU якщо і тільки якщо відповідна сфера містить її в R3R3\mathbb{R}^3. Деталі, які я вже знаю. Розмір VC є принаймні …

2
Чи існують сім'ї формальних мов, які, як відомо, справді засвоєні PAC?
Я конкретно маю на увазі сімейства мов, які допускають довільно довгі рядки, а не сполучники над n бітами або списками рішень або будь-якою іншою "простою" мовою, що міститься в {0,1} ^ n. Я запитую про "автоматично-теоретичні" регулярні мови на відміну від "логіко-теоретичних": щось на зразок кусково тестуваних мов, мови початку-висота-нуль, …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.