Як можна використовувати штучну нейронну мережу ANN для кластеризації без нагляду?


52

Я розумію, як artificial neural network (ANN)можна тренуватися під наглядом, використовуючи зворотні пропорції для поліпшення пристосування, зменшуючи помилку в прогнозах. Я чув, що ANN може бути використаний для непідвладного навчання, але як це можна зробити без якоїсь функції витрат для керування етапами оптимізації? За допомогою k-засобів або алгоритму ЕМ існує функція, для якої кожна ітерація прагне збільшуватися.

  • Як ми можемо кластеризувати з ANN та який механізм він використовує для групування точок даних в одній місцевості?

(а які додаткові можливості приносяться, додаючи до неї більше шарів?)


Вас цікавить НН без нагляду в цілому або конкретно в непідконтрольній кластеризації з нейронними мережами?
Денис Тарасов

@DenisTarasov, мене цікавить насамперед непідконтрольне кластеризація з NN, але я не знаю багато про NN без нагляду навчання NN взагалі. Було б чудово, якби відповідь містила б частину непідконтрольного навчанню NN, перш ніж обговорювати конкретний додаток.
Вас

1
Карта самоорганізації (SOM) - це тип мережі, що використовується для кластеризації.
Cagdas Ozgenc

непідконтрольне навчання ANN - воно витягує статистичні властивості з навчального набору. - Навчання без нагляду є складнішим, але вважається біологічно правдоподібним - не вимагає від викладачів.
йона

Відповіді:


56

Нейронні мережі широко використовуються в навчанні без нагляду, щоб навчитися краще уявляти вхідні дані. Наприклад, надаючи набір текстових документів, NN може вивчити відображення від документа до реального значення вектору таким чином, що вектори, що утворюються, схожі на документи з аналогічним змістом, тобто збереження відстані. Цього можна досягти, використовуючи, наприклад, автокодери - модель, яка навчається реконструювати вихідний вектор із меншого подання (активації прихованого шару) з помилкою відновлення (відстань від функції ідентифікатора) як функції витрат. Цей процес не дає вам кластерів, але він створює змістовні уявлення, які можна використовувати для кластеризації. Наприклад, можна запустити алгоритм кластеризації активацій прихованого шару.

Кластеризація: Існує ряд різних архітектурних мереж, спеціально розроблених для кластеризації. Найбільш широко відомі, мабуть, самоорганізуючі карти. SOM - це NN, який має набір нейронів, з'єднаних для формування топологічної сітки (зазвичай прямокутної). Коли деяка модель представлена ​​SOM, нейрон з найближчим вектором ваги вважається переможцем, і його ваги пристосовуються до шаблону, а також до ваг його сусідства. Таким чином SOM ​​природно знаходить кластери даних. Дещо пов'язаний алгоритм - нарощування нейронного газу (він не обмежується заздалегідь визначеною кількістю нейронів).

Інший підхід - теорія адаптивної резонансу, де у нас є два шари: "поле порівняння" та "поле розпізнавання". Поле розпізнавання також визначає найкращу відповідність (нейрон) вектору, переданому з поля порівняння, а також має бічні інгібіторні зв'язки. Деталі про реалізацію та точні рівняння можна легко знайти, гуглюючи назви цих моделей, тому я не буду їх розміщувати тут.


15

Ви хочете заглянути в самоорганізуючі карти . Кохонен (який їх винайшов) написав про них книгу . Для цього є пакети в R ( som , kohonen ), а є реалізація іншими мовами, такими як MATLAB .


Ви можете розібратися в деталях про те, як NN може це зробити, і детально розглянути теорію? можливо також пояснити ефект використання глибокого NN (DNN)?
Вас

1
Боюся, у мене тут дуже мало досвіду, @Vass. Я не думаю, що додавання зайвих шарів принесе багато, крім уповільнення його. Хтось інший повинен буде дати вам теорію, я просто хотів вас почати.
gung - Відновіть Моніку

1
Студент в нашій лабораторії експериментував з кластером за допомогою SOM. Це зайняло вічно, і результати були дуже невтішними порівняно з іншими підходами (у нашому випадку стандартними алгоритмами кластеризації графіків). Мене завжди спантеличив той факт, що стандартний 2D цільовий домен (топологічна сітка) здається дуже довільним простором. Більш занепокоєння полягає в тому, що це дуже спрощено і по суті потрібно стискати дані в просторі, описаному лише двома змінними.
мікан

@micans робить деякі хороші моменти, але дані не просто стискаються в простір, описаний лише двома змінними, оскільки кожен вузол також пов'язаний з прототипом. Крім того, якщо робота працює повільно, це може бути проблемою впровадження. Статистично інші методи, ніж СОМ, повинні досягти кращих результатів класифікації. Що стосується питання топології, мозок здається організованим у вигляді шарів двовимірної топології, але він досягає великих результатів (або я так хотів би подумати).
Том Андерсон
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.