Запитання з тегом «svm»

Підтримка векторних машин (SVM) - популярний керований алгоритм машинного навчання, який можна використовувати для класифікації або регресії.


11
SVM за допомогою scikit learn працює нескінченно і ніколи не завершує виконання
Я намагаюся запустити SVR за допомогою scikit learn (python) на навчальному наборі даних, що має 595605 рядків та 5 стовпців (функції) та тестовий набір даних, що має 397070 рядків. Дані попередньо оброблені та затверджені. Я можу успішно запустити тестові приклади, але, виконуючи за допомогою мого набору даних і дозволяючи йому …

2
Чи досі підтримуючі векторні машини вважаються "найсучаснішими" у своїй ніші?
Це запитання відповідає на коментар, який я побачив на іншому запитанні. Зауваження стосувалося навчальної програми з вивчення машинного навчання на Coursera, і, відповідно, "SVM не використовуються настільки багато". Я лише щойно закінчив відповідні лекції, і моє розуміння SVM полягає в тому, що вони є надійним і ефективним алгоритмом навчання для …

4
Коли використовувати Random Forest над SVM та навпаки?
Коли один використовувати Random Forestбільш SVMі навпаки? Я розумію, що cross-validationпорівняння моделі є важливим аспектом вибору моделі, але тут я хотів би дізнатися більше про правила роботи та евристику двох методів. Чи може хтось, будь ласка, пояснити тонкощі, сильні та слабкі сторони класифікаторів, а також проблеми, які найкраще підходять до …

2
Як обчислити mAP для завдання виявлення для виклику PASCAL VOC?
Як обчислити mAP (середню середню точність) для завдання виявлення для лідерів Pascal VOC? http://host.robots.ox.ac.uk:8080/leaderboard/displaylb.php?challengeid=11&compid=4 Там сказано - на сторінці 11 : http://homepages.inf.ed.ac.uk/ckiw/postscript/ijcv_voc09.pdf Середня точність (AP). Для виклику VOC2007 була використана інтерпольована середня точність (Salton and Mcgill 1986) для оцінки як класифікації, так і виявлення. Для заданого завдання та класу крива …

2
Чи можете ви пояснити різницю між SVC та LinearSVC у scikit-learn?
Нещодавно я почав вчитися працювати sklearnі щойно натрапив на цей своєрідний результат. Я використовував digitsнаявний набір даних, sklearnщоб спробувати різні моделі та методи оцінки. Коли я тестував модель підтримки Vector Vector на даних, я виявив, що існує два різних класи sklearnдля класифікації SVM: SVCі LinearSVC, коли перший використовує підхід один …
19 svm  scikit-learn 

2
Як підвищити точність класифікаторів?
Я використовую OpenCV letter_recog.cpp приклад для експерименту над випадковими деревами та іншими класифікаторами. У цьому прикладі є реалізація шести класифікаторів - випадкових дерев, підсилюючих, MLP, kNN, наївних Bayes та SVM. Використовується набір даних розпізнавання листів UCI з 20000 екземплярами та 16 функціями, які я розділив навпіл для тренувань та тестування. …

5
Виберіть алгоритм двійкової класифікації
У мене проблема бінарної класифікації: Приблизно 1000 зразків у навчальному наборі 10 атрибутів, включаючи двійкові, числові та категоричні Який алгоритм є найкращим вибором для такого типу проблем? За замовчуванням я розпочну з SVM (попередній з номінальними значеннями атрибутів, перетвореними на бінарні функції), оскільки він вважається найкращим для відносно чистих і …

5
збільшують теплову карту для новонароджених
Я створюю corr()df з оригінального df. corr()ДФ вийшов 70 X 70 і неможливо уявити собі Heatmap ... sns.heatmap(df). Якщо я спробую відобразити corr = df.corr()таблицю, таблиця не відповідає екрану, і я бачу всі кореляції. Це спосіб або надрукувати весь, dfнезалежно від його розміру, або контролювати розмір теплової карти?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

2
Які проблеми з навчанням підходять для векторних машин підтримки?
Які ознаки чи властивості вказують на те, що певну проблему навчання можна вирішити за допомогою векторів підтримки? Іншими словами, що це, коли ви бачите проблему з навчанням, змушує вас піти "о, я обов'язково повинен використовувати SVM для цього", а не нейромережі або дерева рішень чи щось інше?


1
Скільки клітин LSTM я повинен використовувати?
Чи є якісь правила (чи фактичні правила), що стосуються мінімальної, максимальної та "розумної" кількості комірок LSTM, які я повинен використовувати? Зокрема, я стосуюсь BasicLSTMCell від TensorFlow та num_unitsвласності. Будь ласка, припустіть, що у мене проблема класифікації, визначена: t - number of time steps n - length of input vector in …
12 rnn  machine-learning  r  predictive-modeling  random-forest  python  language-model  sentiment-analysis  encoding  machine-learning  deep-learning  neural-network  dataset  caffe  classification  xgboost  multiclass-classification  unbalanced-classes  time-series  descriptive-statistics  python  r  clustering  machine-learning  python  deep-learning  tensorflow  machine-learning  python  predictive-modeling  probability  scikit-learn  svm  machine-learning  python  classification  gradient-descent  regression  research  python  neural-network  deep-learning  convnet  keras  python  tensorflow  machine-learning  deep-learning  tensorflow  python  r  bigdata  visualization  rstudio  pandas  pyspark  dataset  time-series  multilabel-classification  machine-learning  neural-network  ensemble-modeling  kaggle  machine-learning  linear-regression  cnn  convnet  machine-learning  tensorflow  association-rules  machine-learning  predictive-modeling  training  model-selection  neural-network  keras  deep-learning  deep-learning  convnet  image-classification  predictive-modeling  prediction  machine-learning  python  classification  predictive-modeling  scikit-learn  machine-learning  python  random-forest  sampling  training  recommender-system  books  python  neural-network  nlp  deep-learning  tensorflow  python  matlab  information-retrieval  search  search-engine  deep-learning  convnet  keras  machine-learning  python  cross-validation  sampling  machine-learning 

2
Наслідок масштабування функцій
Наразі я використовую SVM і масштабую свої функції тренувань до [0,1]. Я спочатку підходять / трансформують свій навчальний набір, а потім застосовують те саме перетворення до мого тестового набору. Наприклад: ### Configure transformation and apply to training set min_max_scaler = MinMaxScaler(feature_range=(0, 1)) X_train = min_max_scaler.fit_transform(X_train) ### Perform transformation on testing …

1
Інтуїція для параметра регуляризації в SVM
Як зміна параметра регуляризації у SVM змінює межу рішення для нероздільного набору даних? Візуальна відповідь та / або якийсь коментар щодо обмежувальної поведінки (для великих і малих регуляризацій) була б дуже корисною.
11 svm 

1
Що відбувається, коли ми тренуємо лінійний SVM на нелінійно відокремлюваних даних?
Що відбувається, коли ми тренуємо основну машину підтримки вектора (лінійне ядро ​​та відсутність м'якого запасу) на нелінійно відокремлюваних даних? Проблема оптимізації неможлива, тому що повертає алгоритм мінімізації?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.