Запитання з тегом «machine-learning»

Алгоритми машинного навчання будують модель навчальних даних. Термін «машинне навчання» нечітко визначений; вона включає те, що також називається статистичним навчанням, підкріпленням навчання, непідвладним навчанням і т. д. ВЖЕ ДОДАЙТЕ БІЛЬШЕ СПЕЦИФІЧНУ МЕТОДУ.

5
Як ви вирішили, який відсоток вашої поїздки, валідації та випробувань?
Розбиваючи свої мічені дані на навчальні, перевірочні та тестові набори, я почув все від 50/25/25 до 85/5/10. Я впевнений, що це залежить від того, як ви збираєтеся використовувати свою модель і наскільки схильний до переналагодження вашого алгоритму навчання. Чи є спосіб вирішити чи це все за правилом? Навіть ELSII здається …

1
Статистика машинного навчання, документи для початку?
У мене є досвід в галузі комп’ютерного програмування та теорії елементарних чисел, але немає реального навчання статистиці, і нещодавно "виявив", що дивовижний світ цілого спектру методів - це насправді статистичний світ. Здається, що матричні факторизації, заповнення матриці, високі розмірні тензори, вбудовування, оцінка щільності, байесівські умовиводи, розділи Маркова, обчислення власного вектора, …

1
Чи можна навчати модель P (Y | X) за допомогою стохастичного градієнтного спуску з неіідних зразків P (X) та iid зразків P (Y | X)?
Під час тренування параметризованої моделі (наприклад, для збільшення максимальної вірогідності) за допомогою стохастичного градієнтного спуску на деякому наборі даних зазвичай прийнято вважати, що навчальні зразки витягуються внаслідок розподілу навчальних даних. Отже, якщо мета - моделювати спільний розподіл , то кожний навчальний зразок ( x i , y i ) повинен …

3
Який найефективніший спосіб навчання даних з використанням найменшої пам'яті?
Це мої дані про навчання: 200 000 Приклади х 10 000 Особливості. Тож моя матриця даних про навчання - 200 000 х 10 000. Мені вдалося зберегти це у плоскому файлі без проблем із пам'яттю, зберігаючи кожен набір даних один за одним (один приклад за іншим), оскільки я генерую функції …

2
Регуляризація
Існує багато методів проведення регуляризації - наприклад, , L 1 і L 2, заснована на нормуванні регуляризації. На думку Friedman Hastie & Tibsharani , найкращий регуляризатор залежить від проблеми: а саме від природи справжньої цільової функції, конкретної основи, що використовується, співвідношення сигнал-шум та розміру вибірки.L0L0L_0L1L1L_1L2L2L_2 Чи є емпіричні дослідження, що …

3
Як порівняти точність двох різних моделей, використовуючи статистичну значимість
Я працюю над прогнозуванням часових рядів. У мене є два набори даних і . У мене є три моделі прогнозування: . Усі ці моделі навчаються за допомогою зразків у наборі даних , а їх продуктивність вимірюється за допомогою зразків у наборі даних . Скажімо, показники ефективності - MSE (або що-небудь …

3
Щодо використання біграмової (N-грамової) моделі для побудови функціонального вектора для текстового документа
Традиційним підходом побудови функцій для видобутку тексту є підхід із пакету слів, який можна вдосконалити, використовуючи tf-idf для налаштування вектора ознак, що характеризує даний текстовий документ. В даний час я намагаюся використовувати біграмову мовну модель або (N-грам) для побудови функціонального вектора, але не знаю, як це зробити? Чи можемо ми …

1
Поза ядрами Фішера
На деякий час здавалося, що ядра Фішера можуть стати популярними, оскільки, здавалося, це спосіб побудувати ядра з імовірнісних моделей. Однак я рідко бачив, як вони використовуються на практиці, і я вважаю, що вони працюють не дуже добре. Вони покладаються на обчислення інформації про Фішера - цитуючи Вікіпедію: інформація Фішера - …

1
Робота з дуже великими наборами часових рядів
У мене є доступ до дуже великого набору даних. Дані з MEG- записів людей, які слухають музичні уривки, з одного з чотирьох жанрів. Дані такі: 6 Предметів 3 Експериментальні повтори (епохи) 120 випробувань за епоху 8 секунд даних за пробу при 500 Гц (= 4000 зразків) з 275 МЕГ-каналів Отже, …

3
Підходи при навчанні з величезних наборів даних?
В основному, існує два поширених способи навчитися проти величезних наборів даних (коли ви стикаєтесь із обмеженнями часу та простору): Обман :) - використовуйте просто "керований" підмножину для тренувань. Втрата точності може бути незначною через закон зменшення віддачі - прогнозована ефективність моделі часто вирівнюється задовго до того, як у неї будуть …

1
Чи є MFCC оптимальним методом подання музики до системи пошуку?
Техніка обробки сигналу, частота Cepstrum Mel , часто використовується для отримання інформації з музичного твору для використання в завданні машинного навчання. Цей метод дає короткочасний спектр потужності, а коефіцієнти використовуються як вхідні. При проектуванні систем пошуку музики такі коефіцієнти вважаються характерними для твору (очевидно, не обов'язково унікальні, але розрізняючі). Чи …

8
Який алгоритм може бути використаний для прогнозування використання витратних матеріалів за даними минулих покупок?
Думаючи про нібито просту, але цікаву проблему, я хотів би написати якийсь код, щоб прогнозувати витратні матеріали, які мені знадобляться найближчим часом, враховуючи повну історію попередніх закупівель. Я впевнений, що ця проблема має дещо більш загальне та добре вивчене визначення (хтось припускав, що це пов'язане з деякими поняттями в ERP-системах …

6
Порівняйте R-квадрат у двох різних моделях Random Forest
Я використовую пакет randomForest в R, щоб розробити випадкову лісову модель, щоб спробувати пояснити безперервний результат у "широкому" наборі даних з більшою кількістю предикторів, ніж зразків. Зокрема, я підхоплюю одну модель РФ, яка дозволяє процедурі вибирати з набору змінних ~ 75 прогнозів, які я вважаю важливими. Я перевіряю, наскільки добре …

2
Обґрунтування використання AUC?
Особливо в галузі інформатики, орієнтованої на машинознавчу літературу, AUC (область під характеристикою кривої оператора приймача) є популярним критерієм оцінювання класифікаторів. Які виправдання щодо використання AUC? Наприклад, чи є певна функція втрат, для якої оптимальним рішенням є класифікатор з найкращим AUC?

1
Значення коефіцієнтів регресії (GAM), коли вірогідність моделі не суттєво перевищує нульову
Я використовую регрес на основі GAM, використовуючи gamlss пакет R та припускаючи, що бета-завищений бета-розподіл даних. У мене є тільки один пояснює змінної в моїй моделі, так це в основному: mymodel = gamlss(response ~ input, family=BEZI). Алгоритм дає мені коефіцієнт для впливу пояснювальної змінної на середнє значення ( ) та …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.