Запитання з тегом «svm»

Технологія підтримки Vector посилається на "сукупність споріднених методів навчання під контролем, які аналізують дані та розпізнають зразки, використовувані для класифікації та регресійного аналізу".

1
Чи несприятливий набір тренувань негативно впливає на SVM?
Я намагаюся класифікувати повідомлення на різні категорії за допомогою SVM. Я склав список бажаних слів / символів із навчального набору. Для кожного вектора, який представляє повідомлення, я встановлюю відповідний рядок, 1якщо слово є таким: "корпус" є: [Мері, маленький, баранина, зірка, мерехтіння] перше повідомлення: "у Мері було трохи ягняти" -> [1 …

2
SVM, змінна взаємодія та дані тренувань підходять
У мене є 2 загальних / більше теоретичних питання. 1) Мені цікаво, як SVM обробляють змінні взаємодії під час побудови прогнозних моделей. Наприклад, якщо у мене є дві функції f1 і f2, і ціль залежить від f1, f2, і скажімо, f1 * f2 (або якась функція h (f1, f2)), чи …

2
SVM з неоднаковими розмірами груп у навчальних даних
Я намагаюся створити SVM з навчальних даних, де одна група представлена ​​більше, ніж інша. Однак групи будуть однаково представлені у кінцевих даних тесту. Тому я хотів би використовувати class.weightsпараметр e1071інтерфейсу пакету R, libsvmщоб збалансувати вплив двох груп на навчальні дані. Оскільки я не знав, як саме слід вказати ці ваги, …

3
Розуміння регресії SVM: цільова функція та «площинність»
SVM для класифікації мають інтуїтивний сенс для мене: я розумію, як мінімізація дає максимальний запас. Однак я не розумію цієї мети в контексті регресії. Різні тексти ( тут і тут ) описують це як максимізацію «плоскості». Чому ми б хотіли це робити? Що в регресії рівнозначно поняттю "маржа"?||θ||2||θ||2||\theta||^2 Ось кілька …
12 regression  svm 

2
Використовуйте коефіцієнт кореляції Пірсона як оптимізацію в машинному навчанні
У машинному навчанні (для проблем з регресією) я часто бачу середню квадратичну помилку (MSE) або середню абсолютну помилку (MAE), яка використовується як функція помилок для мінімізації (плюс термін регуляризації). Мені цікаво, чи є ситуації, коли використання коефіцієнта кореляції було б більш доцільним? якщо така ситуація існує, то: За яких ситуацій …

2
Алгоритми машинного навчання даних панелей
У цьому запитанні - чи існує метод побудови дерев рішень, який враховує структуровані / ієрархічні / багаторівневі предиктори?- вони згадують метод панельних даних для дерев. Чи існують конкретні методи даних панелей для підтримки векторних машин та нейронних мереж? Якщо так, чи можете ви навести деякі документи для алгоритмів та (якщо …

1
Чи повинен пошук у сітці SVM показувати область високої точності з низькою точністю навколо?
У мене є 12 позитивних навчальних наборів (ракові клітини, які лікуються лікарськими засобами з кожним із 12 різних механізмів дії). Для кожного з цих позитивних навчальних наборів я хотів би навчити підтримуючу векторну машину, щоб відрізнити її від негативного набору рівних розмірів, відібраного з експерименту. Кожен набір має від 1000 …
12 svm 

2
Оптимізація векторної машини підтримки за допомогою квадратичного програмування
Я намагаюся зрозуміти процес навчання лінійної машини підтримки вектора . Я усвідомлюю, що властивості SMV дозволяють оптимізувати їх набагато швидше, ніж за допомогою рішення квадратичного програмування, але для цілей навчання я хотів би побачити, як це працює. Дані про навчання set.seed(2015) df <- data.frame(X1=c(rnorm(5), rnorm(5)+5), X2=c(rnorm(5), rnorm(5)+3), Y=c(rep(1,5), rep(-1, 5))) …
12 r  svm  optimization 

2
Чому CNN укладаються з шарами FC?
З мого розуміння, CNN складаються з двох частин. Перша частина (шари conv / pool), яка виконує вилучення функції, і друга частина (шари fc), яка робить класифікацію за ознаками. Оскільки повноз'єднані нейронні мережі не є найкращими класифікаторами (тобто вони отримують більшу ефективність від SVM та RFs більшу частину часу), чому CNN …

1
Межі узагальнення на SVM
Мене цікавлять теоретичні результати щодо узагальнення здатності підтримуючих векторних машин, наприклад, межі щодо ймовірності помилки класифікації та розмірності Вапніка-Червоненкіса (ВК) цих машин. Однак, читаючи літературу, у мене склалося враження, що деякі подібні повторювані результати, як правило, незначно відрізняються від автора до автора, особливо щодо технічних умов, необхідних для певного виконання. …

1
Наскільки відрізняється підтримка векторної регресії порівняно зі SVM?
Я знаю основи SVM та SVR, але все ще не розумію, як проблема пошуку гіперплану, який максимально збільшує запас, вписується в SVR. По-друге, я прочитав щось про використовується як межа толерантності в SVR. Що це означає?ϵϵ\epsilon По-третє, чи є різниця між параметрами функції прийняття рішення, використовуваними у SVM та SVR?

3
Чому термін зміщення у SVM оцінюється окремо, замість додаткового виміру у векторному характеристиці?
Оптимальний гіперплан у SVM визначається як: w⋅x+b=0,w⋅x+b=0,\mathbf w \cdot \mathbf x+b=0, де поріг. Якщо у нас є деяке відображення яке відображає вхідний простір до деякого простору , ми можемо визначити SVM в просторі , де оптимальною буде гіперплан:ϕ Z Zbbbϕϕ\mathbf \phiZZZZZZ w⋅ϕ(x)+b=0.w⋅ϕ(x)+b=0.\mathbf w \cdot \mathbf \phi(\mathbf x)+b=0. Однак ми завжди …
11 svm  threshold 

2
Використання Adaboost з SVM для класифікації
Я знаю, що Adaboost намагається генерувати сильний класифікатор, використовуючи лінійну комбінацію набору слабких класифікаторів. Однак я прочитав деякі документи, які пропонують Adaboost і SVM працювати в гармонії (навіть якщо SVM є сильним класифікатором) у певних умовах та випадках . Я не в змозі зрозуміти з архітектурної та програмної точки зору, …

1
Зменшення кількості рівнів невпорядкованої категоричної змінної предиктора
Я хочу навчити класифікатор, скажімо, SVM, або випадковий ліс, або будь-який інший класифікатор. Однією з особливостей у наборі даних є категоріальна змінна з 1000 рівнями. Який найкращий спосіб зменшити кількість рівнів у цій змінній. У R є функція, що називається combine.levels()в пакеті Hmisc , яка поєднує в собі нечасті рівні, …

1
Чому неправильно трактувати SVM як ймовірність класифікації?
Я розумію, що SVM полягає в тому, що він дуже схожий на логістичну регресію (LR), тобто зважена сума ознак передається сигмоїдної функції, щоб отримати ймовірність приналежності до класу, але замість перехресної ентропії (логістичної) втрати функція, тренування виконується за допомогою втрати шарніра. Перевага використання втрати шарніру полягає в тому, що можна …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.