Запитання з тегом «machine-learning»

Алгоритми машинного навчання будують модель навчальних даних. Термін «машинне навчання» нечітко визначений; вона включає те, що також називається статистичним навчанням, підкріпленням навчання, непідвладним навчанням і т. д. ВЖЕ ДОДАЙТЕ БІЛЬШЕ СПЕЦИФІЧНУ МЕТОДУ.

5
Відповідні методи кластеризації тимчасових даних?
У мене є тимчасові дані про частоти активності. Я хочу визначити кластери в даних, які вказують на різні періоди часу з подібними рівнями активності. В ідеалі я хочу визначити кластери, не вказуючи апріори кількість кластерів. Які підходять методи кластеризації? Якщо моє запитання не містить достатньо інформації для відповіді, які відомості …

6
Ресурси для вивчення способів реалізації ансамблевих методів
Я теоретично розумію (начебто), як вони працюватимуть, але не впевнений, як реально використовувати метод ансамблю (наприклад, голосування, зважені суміші тощо). Які хороші ресурси для впровадження ансамблевих методів? Чи є якісь ресурси щодо впровадження в Python? Редагувати: Щоб прояснити деякі результати на основі обговорення в коментарях, я не шукаю алгоритмів ансамблі, …

3
Які хороші, вільно доступні журнали для відстеження останніх розробок машинного навчання?
Не соромтеся замінювати "журнали" будь-яким іншим корисним порталом знань. Мені цікаво стежити за новими розробками в машинному навчанні з метою практичного застосування. Я не є академіком, який прагне опублікувати власну роботу (принаймні, не в цій галузі), але хочу знати про можливі нові алгоритми чи хитрощі, які були б корисні на …


4
Чи є підручники з теорії ймовірностей Баєса чи графічних моделей на прикладі?
Я бачив посилання на вивчення баєсівської теорії ймовірностей в R, і мені було цікаво, чи є щось подібне, можливо, конкретно в Python? Орієнтований на вивчення байєсівської теорії ймовірностей, умовиводу, максимальної оцінки ймовірності, графічних моделей і подібного роду?

2
Який найкращий спосіб вивчити основи ймовірності, необхідні для алгоритмів машинного навчання?
Я пройшов курс імовірностей в університеті кілька років тому, але зараз переживаю деякі алгоритми машинного навчання, і частина математики просто збивається з глузду. Зараз саме я вивчаю алгоритм ЕМ (максимізація очікування) і, здається, існує великий розрив між тим, що потрібно, і тим, що я маю. Я не прошу книги чи …

1
Оптимальний алгоритм для вирішення завдань російських бандитів?
Я читав про цілий ряд алгоритмів для вирішення проблем, пов’язаних з бандитськими озброєними на зразок greedy, softmax та UCB1, але у мене виникають певні проблеми з сортуванням того, який підхід найкраще знизити до жалю.ϵϵ\epsilon Чи відомий оптимальний алгоритм для вирішення проблеми російського бандита? Чи є вибір алгоритму, який, здається, найкраще …

2
Контрольоване навчання з "рідкісними" подіями, коли рідкість пов'язана з великою кількістю подій, що зустрічаються фактично
Припустимо, ви можете спостерігати "матчі" між покупцями та продавцями на ринку. Ви також можете спостерігати за характеристиками як покупців, так і продавців, які ви хочете використовувати для прогнозування майбутніх відповідностей та надання рекомендацій обом сторонам ринку. Для простоти припустимо, що є N покупців і N продавців, і кожен знайде відповідність. …

3
GLMNET або LARS для обчислення рішень LASSO?
Я хотів би отримати коефіцієнти для проблеми LASSO | | Y- Xβ| | +λ | | β| |1.||Y−Xβ||+λ||β||1.||Y-X\beta||+\lambda ||\beta||_1. Проблема полягає в тому, що функції glmnet та lars дають різні відповіді. Для функції glmnet я запитую коефіцієнтизамість просто , але я все одно отримую різні відповіді.λλ / | | Y| …

5
Зменшення розмірності SVD для часових рядів різної довжини
Я використовую сингулярне значення декомпозиції як метод зменшення розмірності. З огляду на Nвектори розмірності D, ідея полягає у представленні ознак у перетвореному просторі некоррельованих розмірів, що конденсує більшу частину інформації даних у власних векторах цього простору у зменшуваному порядку важливості. Зараз я намагаюся застосувати цю процедуру до даних часових рядів. …

1
Чому у випадковому лісі чомусь випадковий підмножина функцій вибирається на рівні вузла, а не на рівні дерева?
Моє запитання: Чому випадковий ліс розглядає випадкові підмножини ознак для розщеплення на рівні вузла в межах кожного дерева, а не на рівні дерева ? Передумови: Це щось із питань історії. Тін Кам Хо опублікував цю статтю про будівництво «рішення лісу» шляхом випадкового вибору підмножини функцій для використання для вирощування кожного …

5
Чому спуск градієнта неефективний для великого набору даних?
Скажімо, наш набір даних містить 1 мільйон прикладів, тобто , і ми хочемо використовувати спуск градієнта для виконання логістичної або лінійної регресії на цих наборах даних.х1, … , Х106x1,…,x106x_1, \ldots, x_{10^6} Що це з методом градієнтного спуску робить його неефективним? Нагадаємо, що крок градієнта спуску в момент часу задається:тtt шt …

3
Чи оптимізація PCA опукла?
Цільова функція аналізу головних компонент (PCA) є мінімізація похибки відновлення в нормі L2 (дивіться розділ 2.12 тут Інший вид намагається максимізувати дисперсію на проекції У нас також є відмінний пост тут: .. Яка цільова функція PCA ? ). Моє запитання полягає в тому, що оптимізація PCA опукла? (Я знайшов тут …

1
Чому класифікатор наївних баєсів оптимальний для втрати 0-1?
Класифікатор Naive Bayes - це класифікатор, який присвоює елементи хxx класу СCC на основі максимізації заднього П( С| х)P(C|x)P(C|x) для приналежності до класу, і передбачає, що функції елементів не залежать. Втрата 0-1 - це втрата, яка присвоює будь-якій помилковій класифікації втрату "1", а втрату "0" - будь-якій правильній класифікації. Я …

2
Коваріаційні функції або ядра - що це саме?
Я досить новачок у галузі гауссових процесів і як вони застосовуються в машинному навчанні. Я продовжую читати та чути про те, що функції коваріації є головною привабливістю цих методів. То чи міг би хто-небудь пояснити інтуїтивно, що відбувається в цих коваріаційних функціях? В іншому випадку, якщо ви можете вказати на …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.