Запитання з тегом «k-nearest-neighbour»

k-Найближчі-сусідні класифікатори Ці класифікатори засновані на пам’яті та не потребують придатності жодної моделі. Давши запит x0, ми знаходимо k навчальних балів x (r), r = 1, ..., k, найближчих до відстані до x0, а потім класифікуємо, використовуючи більшість голосів серед k сусідів.

3
Пояснення формули для медіани найближчої точки до початку N зразків з одиничної кулі
В елементах статистичного навчання вводиться проблема висвітлення питань з k-nn у просторах високих розмірів. Існує точок даних, які рівномірно розподілені в -вимірній кулі одиниці.рNNNppp Середня відстань від початку до найближчої точки даних задається виразом: d(p,N)=(1−(12)1N)1pd(p,N)=(1−(12)1N)1pd(p,N) = \left(1-\left(\frac{1}{2}\right)^\frac{1}{N}\right)^\frac{1}{p} Коли , формула розпадається на половину радіуса кулі, і я бачу, як найближча …

1
Kernelised k Найближчий сусід
Я новачок у ядрах і потрапив у корч, намагаючись ядро ​​kNN. Прелімінарії Я використовую поліноміальне ядро: К( Х , у ) = ( 1 + ⟨ х , у ⟩ )гK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Ваш типовий евклідовий kNN використовує таку метрику відстані: г( х , у ) …


1
Плюси дистанції Джефріса Матусіта
Згідно з деякою книгою, яку я читаю, зазвичай використовується дистанція Джефріса та Матусіти. Але я не зміг знайти багато інформації про нього, окрім наведеної нижче формули JMD (x, y) = ∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Він схожий на евклідову відстань за винятком квадратного кореня E (x, y) = ∑(xi−yi)2−−−−−−−−−−√2∑(xi−yi)22\sqrt[2]{\sum(x_i-y_i)^2} Вважається, що відстань JM є …

4
Прокляття розмірності: kNN класифікатор
Я читаю книгу Кевіна Мерфі: Машинне навчання - ймовірнісна перспектива. У першому розділі автор пояснює прокляття розмірності, і є частина, яку я не розумію. Як приклад, автор зазначає: Розглянемо, що входи рівномірно розподілені по D-мірному кубі одиниці. Припустимо, ми оцінюємо щільність міток класу шляхом вирощування гіпер куба навколо х до …

1
VC-розмір k-найближчого сусіда
Що таке VC-розмір алгоритму k-найближчого сусіда, якщо k дорівнює кількості використовуваних навчальних балів? Контекст: Це питання мені задавали в ході я взяв курс, і відповідь дано було 0. Я все ж не розумію, чому це так. Моя інтуїція полягає в тому, що VC-розмір повинен бути 1, тому що слід мати …

1
Теорема без вільного обіду та послідовність K-NN
Під час обчислювального навчання теорема NFL стверджує, що не існує універсального учня. Для кожного алгоритму навчання існує розподіл, який обумовлює виведення учням гіпотезу з великою помилкою, з високою ймовірністю (хоча гіпотез помилок низький). Висновок полягає в тому, що для того, щоб навчитися, клас гіпотезу або розподіли повинні бути обмежені. У …

2
K-найближчий-сусід з безперервними та бінарними змінними
У мене є набір даних із стовпцями a b c(3 атрибути). aє чисельною і безперервним в той час як bі cкатегорично кожен з двома рівнями. Я використовую метод K-Найближчих сусідів для класифікації aта bввімкнення c. Отже, щоб можна було виміряти відстані, я перетворюю свій набір даних, видаляючи bта додаючи b.level1і …

4
Чому KNN не є "модельною"?
Розділ 2.4 ESL, схоже, класифікує лінійну регресію як "засновану на моделі", оскільки вона передбачає , тоді як аналогічне наближення не вказано для k-найближчих сусідів. Але чи не обидва методи роблять припущення щодо ?f( x ) ≈ x ⋅ βf(x)≈x⋅βf(x) \approx x\cdot\betaf( х )f(x)f(x) Пізніше в 2.4 він навіть говорить: Найменші …

4
З огляду на 10D ланцюг MCMC, як я можу визначити його задній режим (и) в R?
Запитання: За допомогою 10-мірної ланцюга MCMC скажімо, що я готовий надати вам матрицю малюнків: 100 000 ітерацій (рядків) за 10 параметрами (стовпцями), як найкраще я можу визначити задні режими? Я особливо переймаюся кількома режимами. Фон:Я вважаю себе статистично обґрунтованим статистиком, але коли колега задав мені це питання, мені було соромно, …

1
Який тип нормалізації даних слід використовувати з KNN?
Я знаю, що існує більше двох типів нормалізації. Наприклад, 1- Трансформація даних за допомогою z-оцінка або t-оцінка. Зазвичай це називається стандартизацією. 2- Розміщення даних для значень між 0 і 1. Питання зараз, чи потрібно мені нормалізувати Який тип нормалізації даних слід використовувати з KNN? і чому?
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.