Нейронні мережі широко використовуються в навчанні без нагляду, щоб навчитися краще уявляти вхідні дані. Наприклад, надаючи набір текстових документів, NN може вивчити відображення від документа до реального значення вектору таким чином, що вектори, що утворюються, схожі на документи з аналогічним змістом, тобто збереження відстані. Цього можна досягти, використовуючи, наприклад, автокодери - модель, яка навчається реконструювати вихідний вектор із меншого подання (активації прихованого шару) з помилкою відновлення (відстань від функції ідентифікатора) як функції витрат. Цей процес не дає вам кластерів, але він створює змістовні уявлення, які можна використовувати для кластеризації. Наприклад, можна запустити алгоритм кластеризації активацій прихованого шару.
Кластеризація: Існує ряд різних архітектурних мереж, спеціально розроблених для кластеризації. Найбільш широко відомі, мабуть, самоорганізуючі карти. SOM - це NN, який має набір нейронів, з'єднаних для формування топологічної сітки (зазвичай прямокутної). Коли деяка модель представлена SOM, нейрон з найближчим вектором ваги вважається переможцем, і його ваги пристосовуються до шаблону, а також до ваг його сусідства. Таким чином SOM природно знаходить кластери даних. Дещо пов'язаний алгоритм - нарощування нейронного газу (він не обмежується заздалегідь визначеною кількістю нейронів).
Інший підхід - теорія адаптивної резонансу, де у нас є два шари: "поле порівняння" та "поле розпізнавання". Поле розпізнавання також визначає найкращу відповідність (нейрон) вектору, переданому з поля порівняння, а також має бічні інгібіторні зв'язки. Деталі про реалізацію та точні рівняння можна легко знайти, гуглюючи назви цих моделей, тому я не буду їх розміщувати тут.