Запитання з тегом «machine-learning»

Алгоритми машинного навчання будують модель навчальних даних. Термін «машинне навчання» нечітко визначений; вона включає те, що також називається статистичним навчанням, підкріпленням навчання, непідвладним навчанням і т. д. ВЖЕ ДОДАЙТЕ БІЛЬШЕ СПЕЦИФІЧНУ МЕТОДУ.

2
Глибоке навчання проти дерев рішень та прискорення методів
Я шукаю статті чи тексти, які порівнюють та обговорюють (емпірично чи теоретично): Подвоєння і дерев рішень алгоритми , такі як випадкових лісів або AdaBoost і GentleBoost стосовно до дерев рішень. з Методи глибокого навчання, такі як машини з обмеженим Больцманом , ієрархічна часова пам’ять , конволюційні нейронні мережі тощо. Більш …

5
Широка масштабна класифікація тексту
Я хочу зробити класифікацію моїх текстових даних. У мене 300 classes200 навчальних документів на заняття (так 60000 documents in total), і це, ймовірно, призведе до дуже високих розмірних даних (ми можемо шукати розміри, що перевищують 1 мільйон ). Я хотів би виконати наступні кроки в трубопроводі (просто щоб ви зрозуміли, …

2
Чи використовуються методи пошуку ліній в глибокому навчанні? Чому ні?
Багато навчальних посібників в Інтернеті говорять про спуск градієнта, і майже всі вони використовують фіксований розмір кроку (швидкість навчання ). Чому не застосовується пошук рядків (наприклад, пошук зворотного відстеження чи точний пошук рядків)?αα\alpha

3
Як розмір партії впливає на конвергенцію SGD і чому?
Я бачив подібний висновок з багатьох дискусій, що в міру збільшення розміру міні-партії збіжність SGD насправді стає важчим / гіршим, наприклад, цей документ і ця відповідь . Також я чув, що люди на ранніх етапах використовують такі хитрощі, як невеликі темпи навчання або розмір партії, щоб вирішити цю складність при …

2
Чи слід брати зразки тренувань випадковим чином для міні-пакетних навчальних нейронних мереж без заміни?
Ми визначаємо епоху як пройшла всю сукупність усіх доступних навчальних зразків, а розмір міні-партії - кількість зразків, за яку ми в середньому знаходимо оновлення ваг / зміщення, необхідних для спуску градієнта. Моє запитання - чи слід ми не замінювати з набору навчальних прикладів, щоб генерувати кожну міні-серію в епоху. Я …

2
як зробити функцію винагороди у підкріпленні навчання
Під час вивчення навчання підсиленням я натрапив на багато форм функції винагороди: , і навіть функцію винагороди, яка залежить лише від поточного стану. Сказавши це, я зрозумів, що «зробити» або «визначити» функцію винагороди не дуже просто.R(s,a)R(s,a)R(s,a)R(s,a,s′)R(s,a,s′)R(s,a,s') Ось мої запитання: Чи є правила, як зробити функції винагороди? Чи існують інші форми …

2
Виявлення аномалії за допомогою манекенів (та інших дискретних / категоричних особливостей)
тл; д-р Який рекомендований спосіб поводження з discreteданими при виявленні аномалії? Який рекомендований спосіб поводження з categoricalданими при виявленні аномалії? Ця відповідь пропонує використовувати дискретні дані для простого фільтрування результатів. Можливо, замініть значення категорії на шанс спостереження? Вступ Це моя перша публікація тут, тому, будь ласка, якщо щось не здається …

3
Чи краще побудувати класифікатор багатокласового рівня, ніж кілька двійкових?
Мені потрібно класифікувати URL-адреси на категорії. Скажімо, у мене є 15 категорій, на які я планую занулювати кожну URL-адресу. Чи краще 15-ти класичний класифікатор? Де я маю 15 міток і генерую функції для кожної точки даних. Або створити 15 двійкових класифікаторів, скажімо: Movie чи Non-Movie, і використати цифри, які я …


2
Найкращий спосіб виконати багатокласний SVM
Я знаю, що SVM - це двійковий класифікатор. Я хотів би поширити його на багатокласний SVM. Який найкращий, а може, найпростіший спосіб його виконання? код: в MATLAB u=unique(TrainLabel); N=length(u); if(N>2) itr=1; classes=0; while((classes~=1)&&(itr<=length(u))) c1=(TrainLabel==u(itr)); newClass=double(c1); tst = double((TestLabel == itr)); model = svmtrain(newClass, TrainVec, '-c 1 -g 0.00154'); [predict_label, accuracy, …

2
Чому класифікатор регресійного регресу досить добре працює для класифікації тексту?
Під час експерименту з класифікації тексту я виявив класифікатор хребта, що генерує результати, які постійно перевершують тести серед тих класифікаторів, які частіше згадуються та застосовуються для завдань з виведення тексту, таких як SVM, NB, kNN тощо. Хоча я ще не розробив про оптимізацію кожного класифікатора в цій конкретній задачі класифікації …

2
У чому полягають відмінності між алгоритмом Баума-Велча та навчанням Вітербі?
Наразі я використовую навчання Вітербі для проблеми сегментації зображень. Мені хотілося знати, які переваги / недоліки полягає у використанні алгоритму Баума-Велча замість навчання Вітербі.

4
Якщо мені потрібна інтерпретаційна модель, чи існують інші методи, крім лінійної регресії?
Я зіткнувся з деякими статистиками, які ніколи не використовують для прогнозування інші моделі, окрім лінійної регресії, оскільки вони вважають, що "моделі ML", такі як випадкове збільшення лісу або градієнта, важко пояснити або "не інтерпретувати". У лінійній регресії, враховуючи, що набір припущень перевірено (нормальність помилок, гомоскедастичність, відсутність мультиколінеарності), t-тести забезпечують спосіб …

1
Як працює випадкова кухонна мийка?
Минулого року на NIPS 2017 Алі Рахімі та Бен Рехт виграли нагороду за тест часу за свою статтю "Випадкові функції для крупномасштабних машин ядра", де вони ввели випадкові функції, пізніше кодифіковані як алгоритм випадкових мийок на кухні. У рамках оприлюднення своїх робіт вони показали, що їх модель може бути реалізована …

3
Криві ROC проти точності відкликання на незбалансованому наборі даних
Я щойно закінчив читати цю дискусію. Вони стверджують, що PR AUC кращий за RUC AUC на незбалансованому наборі даних. Наприклад, у нас є 10 зразків тестових наборів даних. 9 зразків є позитивними та 1 - негативними. У нас є жахлива модель, яка прогнозує все позитивне. Таким чином, ми матимемо метрику, …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.