Які основні відмінності між K-засобами та K-найближчими сусідами?


Відповіді:


106

Це абсолютно різні методи. Те, що вони обоє мають літеру К у своєму імені, - збіг обставин.

K-засоби - це алгоритм кластеризації, який намагається розділити набір точок на K множини (кластери) таким чином, що точки в кожному кластері мають тенденцію бути поруч один з одним. Це без нагляду, оскільки бали не мають зовнішньої класифікації.

K-найближчі сусіди - це алгоритм класифікації (або регресії), який для визначення класифікації точки поєднує класифікацію K найближчих точок. Він контролюється, оскільки ви намагаєтеся класифікувати точку, грунтуючись на відомій класифікації інших точок.


6
Я думаю, що є більше подібності, ніж цей хлопець дає кредит. Вони обидва використовують методи відстані для кластеризації та класифікації входів відповідно. Це часто чому вони навчаються разом, і чому питання розмірності обговорюються стосовно них. До обох можуть застосовуватися різні методи дистанції. Насправді багато подібності.
eljusticiero67

@ eljusticiero67, звичайно, вони використовуються для класифікації входів, це згадується ОП. І більшість класичних методів навчання базуються на відстані, тому це також не дивно. Зауважте, що ОП зацікавились відмінностями. Також я зрозумів це так, ніби ОП передбачає, що може бути подібність через K в обох назвах.
Побіт

12

Як зазначає Бітоус у своїй відповіді , k-засоби - це алгоритм кластеризації. Якщо мова йде про k-найближчих сусідів (k-NN), термінологія трохи нечітка:

  • в контексті класифікації - це алгоритм класифікації, як також зазначалося у вищезгаданій відповіді

  • загалом це проблема , для якої існують різні рішення (алгоритми)

Так, у першому контексті, кажучи, що "k-NN класифікатор" може насправді означати різні основні конкретні алгоритми, що вирішують k-NN задачу, і їх результат інтерпретується з метою класифікації.

Це дві різні речі, але вам може бути цікаво, що алгоритм k-означає один з різних можливих методів вирішення проблеми k-NN (Маріус Муджа та Девід Г. Лоу, "Швидкі приблизні найближчі сусіди з автоматичною конфігурацією алгоритму" , в Міжнародна конференція з теорії та застосувань комп’ютерного зору (VISAPP'09), PDF 2009 р. )


0

Ви можете мати контрольовані k-засоби. Ви можете будувати центроїди (як у k-значень) на основі ваших мічених даних. Ніщо вас не зупиняє. Якщо ви хочете покращити це, евклідовий простір та евклідова відстань, можливо, не дадуть вам найкращих результатів. Вам потрібно буде вибрати свій простір (може бути, наприклад, риманівський простір) і визначити відстань між точками (і навіть визначити "точку"). Останні два - це теми досліджень, і вони також залежать від типу (властивостей) даних (сигналу), які ви маєте.


-2

K-засоби можуть створювати інформацію про кластер для сусідніх вузлів, тоді як KNN не може знайти кластер для даного сусідського вузла.


-2

k Засоби можуть бути використані як навчальний етап перед тим, як knn буде розгорнута на фактичній стадії класифікації. K означає, створює класи, представлені центроїдом та класом етикетки зразків, що належать до кожного класу. knn використовує ці параметри, а також k-число, щоб класифікувати невидимий новий зразок та призначити його одному з k- класів, створених алгоритмом K означає

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.