Різниця між стандартними та сферичними алгоритмами k-означає


28

Я хотів би зрозуміти, в чому полягає основна різниця в реалізації між стандартними та сферичними алгоритмами кластеризації к-засобів.

На кожному кроці k-означає обчислює відстані між елементами векторів і центроїдами кластера і переназначає документ цьому кластеру, центроїд якого найближчий. Потім всі центроїди перераховуються.

У сферичних k-засобах всі вектори нормалізуються, а міра відстані - це косинусна несхожість.

Це все, чи є щось інше?

Відповіді:


23

Питання:

Яка різниця між класичними k-засобами та сферичними k-засобами?

Класичні K-засоби:

У класичних k-засобах ми прагнемо мінімізувати евклідову відстань між центром кластера та членами кластеру. Інтуїція, що стоїть за цим, полягає в тому, що радіальна відстань від центру кластера до місця розташування елемента повинна «мати однаковість» або «бути подібною» для всіх елементів цього кластера.

Алгоритм:

  • Встановити кількість кластерів (також кількість кластерів)
  • Ініціалізуйте, випадковим чином призначивши точки в просторі для кластерних індексів
  • Повторюйте до сходження
    • Для кожної точки знайдіть найближчий кластер і призначте точку кластеру
    • Знайдіть середнє значення для кожного кластера та середнє значення центру оновлення
    • Помилка - норма відстані кластерів

Сферичні K-засоби:

У сферичних k-засобах ідея полягає в тому, щоб встановити центр кожного кластера таким чином, щоб він робив однорідний і мінімальний кут між компонентами. Інтуїція схожа на погляд зірок - точки повинні мати послідовні відстані між собою. Цей простір простіше оцінити як "косинусну схожість", але це означає, що немає галактик "молочного шляху", що утворюють великі яскраві ділянки по небі даних. (Так, я намагаюся поговорити з бабусею в цій частині опису.)

Більш технічна версія:

Подумайте про вектори, речі, які ви зображуєте як стрілки з орієнтацією та фіксованою довжиною. Він може бути переведений де завгодно і бути однаковим вектором. реф

введіть тут опис зображення

Орієнтацію точки в просторі (її кут від опорної лінії) можна обчислити за допомогою лінійної алгебри, зокрема крапкового добутку.

Якщо перемістити всі дані так, щоб їхній хвіст знаходився в одній і тій же точці, ми можемо порівняти "вектори" за їхнім кутом і згрупувати подібні в єдиний кластер.

введіть тут опис зображення

Для наочності довжини векторів масштабують, щоб їх було легше «порівняти з очним яблуком».

введіть тут опис зображення

Ви можете подумати про це як сузір'я. Зірки в одному скупченні в деякому сенсі близькі один одному. Це мої очні яблука, які вважаються сузір'ями.

введіть тут опис зображення

Цінність загального підходу полягає в тому, що він дозволяє нам придумувати вектори, які в іншому випадку не мають геометричного виміру, як, наприклад, у методі tf-idf, де вектори є частотою слова в документах. Два "та" слова, що додаються, не дорівнює "the". Слова бувають неперервними та нечисловими. Вони нефізичні в геометричному сенсі, але ми можемо їх змайструвати геометрично, а потім використовувати геометричні методи для обробки. Сферичні k-засоби можна використовувати для кластеризації на основі слів.

[x1y1x2y2group00.80.20130.7316B0.80.10.95240.3639A0.20.30.20610.1434C0.80.10.47870.153B0.70.20.72760.3825A0.90.90.7480.6793C]

Деякі моменти:

  • Вони проектуються в одиничну сферу для обліку відмінностей у довжині документа.

Давайте попрацюємо над фактичним процесом, і подивимось, наскільки (погано) було моє «очне яблуко».

Процедура така:

  1. (неявне в проблемі) з'єднайте хвости векторів за початком
  2. проект на одиничну сферу (для врахування відмінностей у довжині документа)
  3. використовувати кластеризацію для мінімізації " косинусної несхожості "

J=id(xi,pc(i))

d(x,p)=1cos(x,p)=x,pxp

(незабаром буде більше змін)

Посилання:

  1. http://epub.wu.ac.at/4000/1/paper.pdf
  2. http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.1.111.8125&rep=rep1&type=pdf
  3. http://www.cs.gsu.edu/~wkim/index_files/papers/refinehd.pdf
  4. https://www.jstatsoft.org/article/view/v050i10
  5. http://www.mathworks.com/matlabcentral/fileexchange/32987-the-spherical-k-means-algorithm
  6. https://ocw.mit.edu/courses/sloan-school-of-management/15-097-prediction-machine-learning-and-statistics-spring-2012/projects/MIT15_097S12_proj1.pdf

У текстових файлах я думаю, що функція "diff", яка вирівнює символи або вказує на зміни ваг, може бути корисною попередньою
обробкою

Я отримую "Заборонений доступ" за посиланням у №1 ( sci.utah.edu/~weiliu/research/clustering_fmri/… )
David Doria

@David - мене теж. Завжди в русі ... Інтернет? Будь ласка, хвилиночку.
EngrStudent

1
Після певного вагання я вирішив зараз відповісти на цю відповідь. Це не тільки занадто "бабусине" пояснення, це неточне. radial distance from the cluster-center to the element location should "have sameness" or "be similar" for all elements of that clusterзвучить просто неправильно або тупо. У both uniform and minimal the angle between components"компонентах" не визначено. Я сподіваюся, що ви могли б покращити потенційно чудову відповідь, якщо зробите це трохи більш суворо і розширено.
ttnphns
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.