Запитання з тегом «machine-learning»

Теоретичні питання машинного навчання, особливо теорії обчислювального навчання, включаючи алгоритмічну теорію навчання, навчання PAC та байєсівські умовиводи

1
Який компроміс між чисельністю популяції та кількістю поколінь за генетичними алгоритмами
Генетичні алгоритми розвиваються у менших поколінь із більшою сукупністю, але також потрібно більше часу для обчислення покоління. Чи є якісь орієнтири для збалансування цих двох факторів, щоб якнайшвидше знайти життєздатне рішення? Також це найкраще місце для питання?

3
Алгоритми статистичних запитів?
Я поставив це питання на схрещені питання та відповіді, але здається, що він пов'язаний з CS набагато більше, ніж зі статистикою. Чи можете ви навести мені приклади алгоритмів машинного навчання, які вивчають статистичні властивості набору даних, а не окремі спостереження, тобто використовують модель статистичних запитів ?

1
Обчислювальна потужність нейронних мереж?
Скажімо, у нас є одношарова нейронна мережа прямої подачі з k входами та одним виходом. Він обчислює функцію з , досить легко зрозуміти, що вона має принаймні таку ж обчислювальну потужність, як . Для задоволення ми назвемо набір функцій, обчислених одношаровою нейронною мережею, " ".{ 0 , 1 }н→ { …

1
Запит на довідку: субмодульна мінімізація та монотонні булеві функції
Передумови: У машинному навчанні ми часто працюємо з графічними моделями, щоб представити функції високої щільності ймовірності. Якщо відкинути обмеження, що щільність інтегрується (суми) до 1, ми отримаємо ненормалізовану графічну структуру енергетичної функції . Припустимо, у нас є така енергетична функція EEE , визначена на графіку G=(V,E)G=(V,E)G = (\mathcal{V}, \mathcal{E}) . …

12
Які існують реальні програми для генетичних алгоритмів?
Які проблеми в реальному світі вирішено за допомогою генетичного алгоритму? В чому проблема? Який тест на придатність використовується для вирішення цієї проблеми?

1
Чи є властивості розподілу, які "максимально" важко перевірити?
Алгоритм тестування розподілу для властивості P розподілу (який є лише деяким підмножиною всіх розподілів за [n]) дозволений доступ до зразків відповідно до деякого розподілу D, і він повинен вирішити (whp), якщо або d ( D , P ) > ϵ ( d зазвичай це відстань ℓ 1 ). Найпоширеніший показник …

5
Чому машинне навчання не може розпізнати прості числа?
Скажімо, у нас є векторне подання будь-якого цілого числа величини n, V_n Цей вектор є входом до алгоритму машинного навчання. Перше запитання: Для якого типу представлень можна дізнатися первинність / композитність n за допомогою нейронної мережі або якогось іншого векторного бітового відображення ML. Це суто теоретично - нейронна мережа може …

3
Коли використовувати лему Джонсона-Лінденштраусса над SVD?
Лема Джонсона-Лінденштраусса дозволяє представляти точки у просторовому просторі на точки нижчої розмірності. При знаходженні просторів нижнього розміру, що найкраще підходять, стандартним методом є пошук розкладання сингулярного значення, а потім взяття підпростору, породженого найбільшими сингулярними значеннями. Коли цікаво використовувати Джонсона-Лінденштрауса над SVD?

5
алгоритм кластеризації невимірних даних
У мене є набір даних тисяч точок і засіб вимірювання відстані між будь-якими двома точками, але точки даних не мають розмірності. Я хочу, щоб алгоритм знаходив центри кластерів у цьому наборі даних. я уявляю, що оскільки дані не мають розмірів, центр кластера може складатися з декількох точок даних і допуску, …

2
Складність обчислювального запиту SQ-навчання
Відомо, що для навчання PAC існують природні класи концепцій (наприклад, підмножини списків рішень), для яких існують поліноміальні розриви між складністю вибірки, необхідною для теоретичного інформаційного навчання, який обчислюється без обмежень, і складності вибірки, необхідної полінома- час, що навчається. (див., наприклад, http://portal.acm.org/citation.cfm?id=267489&dl=GUIDE або http://portal.acm.org/citation.cfm?id=301437 ) Ці результати, схоже, залежать від кодування …

1
Враховуючи , знайдіть підпункт з великим обсягом і великим середнім значенням
Ось проблема з подібним ароматом до вивчення хунтів: Вхід: Функція , представлена ​​оракул членства, тобто оракул, який дав , повертає .f:{0,1}n→{−1,1}f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\}xxxf(x)f(x)f(x) Мета: Знайти подкуба з з об'ємом така , що . Ми припускаємо, що такий субкуб існує.SSS{0,1}n{0,1}n\{0,1\}^n|S|=2n−k|S|=2n−k|S|=2^{n-k}|Ex∈Sf(x)|≥0.1|Ex∈Sf(x)|≥0.1\left|\mathbb{E}_{x \in S} f(x) \right| \ge 0.1 Легко отримати алгоритм, який …

1
Як агрегація баз даних утворює моноїд?
На cs.stackexchange я запитав про бібліотеку scala algebird на github, розмірковуючи над тим, чому їм може знадобитися абстрактний пакет алгебри. На сторінці github є деякі підказки: Впровадження Monoids для цікавих алгоритмів наближення, таких як фільтр Bloom, HyperLogLog та CountMinSketch. Вони дозволяють думати про такі складні операції, як ти, можливо, чисел, …

1
Низькі межі / твердість шумових паритетів (LWE)
Деякі відомості: Мені цікаво знайти "менш відомі" нижчі межі (або результати твердості) для проблеми "Навчання з помилками" (LWE) та їх узагальнення на зразок навчання з помилками над кільцями. Для конкретних визначень тощо, ось приємне опитування Регева: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf Стандартний тип припущення (R) стилю LWE - це через (можливо, квантове) скорочення до …

1
Нижні межі для вивчення в запиті про членство та моделі контрприкладу
Dana Angluin ( 1987 ; pdf ) визначає модель навчання із запитами про членство та теоретичними запитами (контрприклади запропонованій функції). Вона показує, що звичайна мова, яка представлена ​​мінімальною DFA з станів, вивчається в поліноміальний час (де пропоновані функції - DFA) з O ( m n 2 ) запитами членства та …

5
Чи існує яка-небудь техніка на основі градієнта для пошуку абсолютного мінімуму (максимуму) функції у багатовимірному просторі?
Мені знайомий алгоритм спуску градієнта, який може знайти локальний мінімум (максимум) даної функції. Чи є якась модифікація спуску градієнта, яка дозволяє знайти абсолютний мінімум (максимум), де функція має кілька локальних екстремумів? Чи є якісь загальні методи, як посилити алгоритм, який може знайти локальний екстремум, для пошуку абсолютного екстремуму?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.