Запитання з тегом «kernel-trick»

Методи ядра використовуються в машинному навчанні для узагальнення лінійних методів до нелінійних ситуацій, особливо SVM, PCA та GP. Не слід плутати з [згладжуванням ядра], для оцінки щільності ядра (KDE) та регресії ядра.


1
Залежність між кількістю векторів підтримки та кількістю функцій
Я запустив SVM проти заданого набору даних і зробив наступне спостереження: Якщо я зміню кількість функцій для побудови класифікатора, то кількість векторів підтримки в результаті також буде змінена. Мені хотілося б знати, як пояснити такий сценарій.

1
Kernelised k Найближчий сусід
Я новачок у ядрах і потрапив у корч, намагаючись ядро ​​kNN. Прелімінарії Я використовую поліноміальне ядро: К( Х , у ) = ( 1 + ⟨ х , у ⟩ )гK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Ваш типовий евклідовий kNN використовує таку метрику відстані: г( х , у ) …

5
Як ефективно обчислити ядро ​​Гаусса в numpy [закрито]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 3 роки тому . У мене є nummy масив з m стовпцями та n рядками, стовпці мають розміри та рядки даних. Тепер мені потрібно обчислити значення …

1
Метод Найстрома для апроксимації ядра
Я читав про метод Nyström для апроксимації ядра низького рангу. Цей метод реалізований у scikit-learn [1] як метод проектування зразків даних до наближення низького рангу відображення функції ядра. Наскільки мені відомо, зважаючи на навчальний набір та функцію ядра, він генерує апроксимацію низького рангу матриці ядра ядра , застосовуючи SVD до …

2
Чи працює теорема Мерсера у зворотному напрямку?
Колега має функцію і для наших цілей це чорний ящик. Функція вимірює подібність s ( a , b ) двох об'єктів.сsss ( a , b )s(a,b)s(a,b) Ми точно знаємо, що має такі властивості:сss Оцінки подібності - це реальні числа від 0 до 1, включно. Тільки об'єкти, які є самоідентичними, мають …

1
Чи чутливий векторний апарат підтримки до співвідношення між атрибутами?
Я хотів би навчити SVM для класифікації справ (TRUE / FALSE) на основі 20 атрибутів. Я знаю, що деякі з цих ознак сильно співвідносяться. Тому моє запитання: чи SVM чутливий до співвідношення чи надмірності між ознаками? Будь-яка довідка?


1
Як кернелізувати простий перцептрон?
Задачі класифікації з нелінійними межами не можуть бути вирішені простим перцептроном . Наступний код R має ілюстративні цілі та заснований на цьому прикладі в Python): nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, byrow=T) y …

1
Які методи існують для налаштування гіперпараметрів ядра графіку SVM?
У мене є деякі дані, які існують на графіку . Вершини належать до одного з двох класів y i ∈ { - 1 , 1 } , і мені цікаво навчати SVM для розмежування двох класів. Одним відповідним ядром для цього є дифузійне ядро , K = exp ( - …

1
Поза ядрами Фішера
На деякий час здавалося, що ядра Фішера можуть стати популярними, оскільки, здавалося, це спосіб побудувати ядра з імовірнісних моделей. Однак я рідко бачив, як вони використовуються на практиці, і я вважаю, що вони працюють не дуже добре. Вони покладаються на обчислення інформації про Фішера - цитуючи Вікіпедію: інформація Фішера - …

2
Який метод ядра дає найкращі ймовірні результати?
Нещодавно я використовував Платт-масштабування SVM-виходів для оцінки ймовірностей подій за замовчуванням. Більше прямих альтернатив, здається, "логістична регресія ядра" (KLR) та пов'язана з цим "Імпортна векторна машина". Хто-небудь може сказати, який метод ядра, що дає ймовірні результати, є сучасним рівнем? Чи існує R-реалізація KLR? Велике спасибі за вашу допомогу!

1
Як SVM = шаблон відповідає?
Я прочитав про SVM та дізнався, що вони вирішують оптимізаційну задачу та ідея максимальної маржі була дуже розумною. Тепер, використовуючи ядра, вони можуть знайти навіть нелінійні межі поділу, що було чудово. Поки я справді не маю уявлення, як SVM (спеціальна машина ядра) та машини ядра пов'язані з нейронними мережами? Розгляньте …

1
Які обмеження методів ядра та коли використовувати методи ядра?
Методи ядра дуже ефективні у багатьох контрольованих завданнях класифікації. Отже, які обмеження є методами ядра та коли використовувати методи ядра? Особливо в епоху даних великого масштабу, якими є досягнення ядерних методів? Яка різниця між методами ядра та навчанням з кількома примірниками? Якщо дані є 500x10000, чи 500є кількість вибірок і …

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.