Запитання з тегом «machine-learning»

Алгоритми машинного навчання будують модель навчальних даних. Термін «машинне навчання» нечітко визначений; вона включає те, що також називається статистичним навчанням, підкріпленням навчання, непідвладним навчанням і т. д. ВЖЕ ДОДАЙТЕ БІЛЬШЕ СПЕЦИФІЧНУ МЕТОДУ.

2
Однокласний SVM проти зразкового SVM
Я розумію, що однокласні SVM (OSVM) були запропоновані з урахуванням відсутності негативних даних, і вони прагнуть знайти межі рішення, які відокремлюють позитивний набір і якусь негативну опорну точку, скажімо, походження. Робота в 2011 році пропонує екземплярні SVM (ESVM), які готують "єдиний класифікатор на категорію", який стверджує, що відрізняється від OSVM, …

2
тренінгові підходи для сильно незбалансованого набору даних
У мене сильно незбалансований набір даних тесту. Позитивний набір складається з 100 випадків, тоді як негативний - 1500 випадків. Що стосується тренінгу, у мене є більший пул кандидатів: позитивний навчальний набір має 1200 випадків, а негативний навчальний набір - 12000 випадків. Для подібного сценарію у мене є кілька варіантів: 1) …

3
Пошук сітки при перехресній валідації k-кратної
Я маю набір даних 120 зразків у 10-кратній перехресній валідації. В даний час я підбираю дані тренувань першого тренінгу і роблю на ньому 5-кратну перехресну перевірку, щоб вибрати значення гамма та С шляхом пошуку по сітці. Я використовую SVM з ядром RBF. Оскільки я роблю десять 10 крос-валідацій, щоб повідомити …

2
Чи страждає класифікація GBM від незбалансованих розмірів класів?
Я маю справу з контрольованим питанням бінарної класифікації. Я хотів би використовувати пакет GBM для класифікації людей як незаражених / інфікованих. У мене в 15 разів більше незаражених, ніж заражених. Мені було цікаво, чи страждають моделі GBM у разі незбалансованих розмірів класу? Я не знайшов жодних посилань, що відповідали б …

3
Колінеарні змінні в навчанні багатошарового LDA
Я готую багатокласний класифікатор LDA з 8 класами даних. Під час виконання тренінгу я отримую попередження: " Змінні колінеарні " Я отримую точність тренувань понад 90% . Я використовую бібліотеку scikits-learn у Python, щоб тренувати та перевіряти дані класу Multi-Class. Я також отримую гідну точність тестування (близько 85% -95% ). …

6
Найшвидша реалізація SVM
Більше загального питання. Я запускаю rbf SVM для прогнозного моделювання. Я думаю, що моїй програмі, безумовно, потрібно трохи прискорити. Я використовую scikit learn з грубим точним пошуком сітки + перехресне підтвердження. Кожен пробіг SVM займає близько хвилини, але з усіма ітераціями я все ще знаходжу це занадто повільно. Припустимо, що …

1
Виведення зміни змінних функції щільності ймовірності?
У книзі розпізнавання візерунків та машинне навчання (формула 1.27) він дає py(y)=px(x)∣∣∣dxdy∣∣∣=px(g(y))|g′(y)|py(y)=px(x)|dxdy|=px(g(y))|g′(y)|p_y(y)=p_x(x) \left | \frac{d x}{d y} \right |=p_x(g(y)) | g'(y) | деx=g(y)x=g(y)x=g(y),px(x)px(x)p_x(x)- pdf, що відповідаєpy(y)py(y)p_y(y) щодо зміни змінної. У книгах сказано, що це тому, що спостереження, що потрапляють у діапазон , при малих значеннях δ x будуть перетворені в …

1
Як стохастичний градієнтний спуск може заощадити час порівняно зі звичайним градієнтним спуском?
Стандартний градієнт спуск обчислює градієнт для всього навчального набору даних. for i in range(nb_epochs): params_grad = evaluate_gradient(loss_function, data, params) params = params - learning_rate * params_grad Для заздалегідь визначеної кількості епох спочатку обчислюємо градієнтний вектор weights_grad функції втрат для всього набору даних із параметрами вектора параметрів. Стохастичний градієнтний спуск, навпаки, …

1
Чи не існує в статистиці теорії навчання проблема надмірного розміщення на тестовому наборі?
Розглянемо проблему класифікації набору даних MNIST. Згідно з веб-сторінкою MNIST Янна Лекуна , "Ciresan та ін." отримали 0,23% помилок на тестовому наборі MNIST за допомогою Convolutional Neural Network. Позначимо навчальний набір MNIST як , тестовий набір MNIST як D t e s t , остаточну гіпотезу, яку вони отримали, використовуючи …

3
Яка різниця між онлайн та пакетним навчанням?
Зараз я читаю статтю « Ефективне навчання в режимі он-лайн та пакетне навчання», використовуючи розділення «Вперед-назад», розроблені Джоном Дючі та Йорамом Зінгер. Мене дуже бентежить використання термінів "Інтернет" та "Пакет". Я подумав, що "Інтернет" означає, що ми оновлюємо вагові параметри після обробки однієї одиниці даних тренувань. Потім ми використовуємо нові …

5
Який вплив має підвищення навчальних даних на загальну точність системи?
Чи може хтось підсумувати для мене можливі приклади, при яких ситуаціях збільшення даних про тренінг покращує загальну систему? Коли ми виявимо, що додавання більшої кількості даних про навчання може призвести до надмірних даних і не дати належної точності даних тесту? Це дуже неспецифічне запитання, але якщо ви хочете відповісти на …


2
Яку міру помилки в навчанні повідомити про випадкові ліси?
Наразі я підганяю випадкові ліси для проблеми класифікації, використовуючи randomForestпакунок на R, і не знаю, як повідомити про помилку навчання для цих моделей. Моя помилка тренінгу близька до 0%, коли я обчислюю її за допомогою передбачень, які я отримую за допомогою команди: predict(model, data=X_train) де X_trainдані про навчання. Відповідаючи на …

1
Який багаторазовий метод порівняння використовувати для lmer-моделі: lsmeans або glht?
Я аналізую набір даних, використовуючи модель змішаних ефектів з одним фіксованим ефектом (умовою) та двома випадковими ефектами (учасник, обумовлений в рамках проекту та пари). Модель була згенерована з lme4пакетом: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Далі я провів перевірку коефіцієнта ймовірності цієї моделі проти моделі без фіксованого ефекту (умови) і маю суттєву різницю. У моєму …

5
Я навчаюсь із розпізнавання образів та машинного навчання, Кріс Бішоп, будь-які хороші ресурси?
Чи є відео чи інші книги / примітки, що хтось натрапив на те, щоб слідувати розпізнаванню візерунків та машинному навчанню Кріс Бішоп? Я купив цю книгу, щоб навчитися машинному навчанню, і у мене виникли проблеми з її переходом.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.