Запитання з тегом «svm»

Технологія підтримки Vector посилається на "сукупність споріднених методів навчання під контролем, які аналізують дані та розпізнають зразки, використовувані для класифікації та регресійного аналізу".


3
Як довести, що радіальною базовою функцією є ядро?
Як довести, що функція радіальної основи є ядром? Наскільки я розумію, щоб довести це, ми повинні довести одне з наступного:k(x,y)=exp(−||x−y||2)2σ2)k(x,y)=exp⁡(−||x−y||2)2σ2)k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2}) Для будь-якого набору векторів матриця = - це додатне напіввизначене.x1,x2,...,xnx1,x2,...,xnx_1, x_2, ..., x_nK(x1,x2,...,xn)K(x1,x2,...,xn)K(x_1, x_2, ..., x_n)(k(xi,xj))n×n(k(xi,xj))n×n(k(x_i, x_j))_{n \times n} Можна подати відображення наприклад = .ΦΦ\Phik(x,y)k(x,y)k(x, y)⟨Φ(x),Φ(y)⟩⟨Φ(x),Φ(y)⟩\langle\Phi(x), \Phi(y)\rangle …
35 svm  kernel-trick 

3
Що означає "слабкий учень"?
Хтось може сказати мені, що розуміється під фразою «слабкий учень»? Це має бути слабкою гіпотезою? Мене плутає зв’язок між слабким учнем та слабким класифікатором. Обидва однакові чи є якась різниця? У AdaBoost алгоритму T=10. Що мається на увазі під цим? Чому ми обираємо T=10?

3
Чи є якась проблема з контрольованим навчанням, яка (глибокі) нейронні мережі очевидно не могла б перевершити будь-які інші методи?
Я бачив, як люди доклали чимало зусиль для SVM та ядер, і вони виглядають досить цікаво як починаючі в машинному навчанні. Але якщо ми сподіваємось, що майже завжди ми зможемо знайти рішення, що перевершує ефективність, з точки зору (глибокої) Нейронної мережі, у чому сенс спроби інших методів у цю епоху? …

5
Чи може SVM робити потокове навчання одним прикладом?
У мене є набір потокових даних, приклади доступні по одному. Мені потрібно було б зробити їх класичну класифікацію. Як тільки я подав навчальний приклад навчальному процесу, я мушу відкинути приклад. Одночасно я також використовую найновішу модель для прогнозування даних без маркування. Наскільки я знаю, нейронна мережа здатна здійснювати потокове навчання, …

3
Логістична регресія ядра проти SVM
Як відомо всім, SVM може використовувати метод ядра для проектування точок даних у більш високих просторах, щоб точки могли бути розділені лінійним простором. Але ми також можемо використовувати логістичну регресію для вибору цієї межі в просторі ядра, тож які переваги SVM? Оскільки SVM використовує розріджену модель, в якій лише ті …
32 svm 


2
Який діапазон пошуку для визначення оптимальних параметрів С і гамма для SVM?
Я використовую SVM для класифікації і намагаюся визначити оптимальні параметри для лінійних та RBF ядер. Для лінійного ядра я використовую перехресний вибір параметрів для визначення C, а для ядра RBF я використовую пошук сітки для визначення C та гамми. У мене є 20 (числових) ознак та 70 прикладів навчання, які …

2
формат даних libsvm [закрито]
Я використовую інструмент libsvm ( http://www.csie.ntu.edu.tw/~cjlin/libsvm/ ) для класифікації вектора підтримки. Однак я збентежений щодо формату вхідних даних. З ПРОЧИТАННЯ: Формат файлу даних про навчання та тестування: <label> <index1>:<value1> <index2>:<value2> ... . . . Кожен рядок містить екземпляр і закінчується символом '\ n'. Для класифікації <label>- це ціле число, що …

3
Наскільки R масштабує завдання для класифікації тексту? [зачинено]
Я намагаюся досягти швидкості з R. Я врешті-решт хочу використовувати R-бібліотеки для класифікації тексту. Мені було просто цікаво, який досвід людей щодо масштабованості R, коли мова йде про класифікацію тексту. Я, швидше за все, зіткнувся з великими розмірними даними (~ 300k розмірів). Я дивлюся на використання SVM та Random Forest, …

3
Різниця між SVM та перцептроном
Я трохи плутаю різницю між SVM та перцептроном. Дозвольте спробувати узагальнити своє розуміння тут, і, будь ласка, не соромтесь виправити, де я помиляюся, і заповнити те, що я пропустив. Perceptron не намагається оптимізувати роздільну "відстань". Поки він знаходить гіперплан, який розділяє два набори, це добре. SVM, з іншого боку, намагається …


3
R: Випадковий ліс, який кидає NaN / Inf у помилці "виклику іноземної функції", незважаючи на відсутність набору даних NaN [закритий]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 2 роки тому . Я використовую caret, щоб запустити перехрещений випадковий ліс над набором даних. Змінна Y - фактор. У моєму наборі даних немає NaN, Inf …

2
Яка статистична модель за алгоритмом SVM?
Я дізнався, що при роботі з даними, використовуючи підхід, заснований на моделі, першим кроком є ​​моделювання процедури даних як статистичної моделі. Потім наступним кроком є ​​розробка ефективного / швидкого алгоритму виведення / навчання на основі цієї статистичної моделі. Тож я хочу запитати, яка статистична модель стоїть за алгоритмом векторної машини …

1
Обчислювальна повторюваність ефектів від lmer-моделі
Я щойно натрапив на цю статтю , в якій описано, як обчислити повторюваність (він же - надійність, також внутрішньокласова кореляція) вимірювання за допомогою моделювання змішаних ефектів. R-код буде: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.