Контрольоване зменшення розмірності


13

У мене є набір даних, що складається з 15K зразків з міткою (з 10 груп). Я хочу застосувати зменшення розмірності на 2 виміри, які б враховували знання етикетки.

Коли я використовую "стандартні" методи безконтрольного зменшення розмірності, такі як PCA, графік розсіювання, здається, не має нічого спільного з відомими мітками.

Чи має те, що я шукаю, ім'я? Я хотів би прочитати кілька посилань на рішення.


3
Якщо ви шукаєте лінійні методи, то вам слід скористатися лінійним дискримінантним аналізом (LDA).
амеба каже, що повернеться до Моніки

@amoeba: Дякую Я користувався ним, і він працював набагато краще!
Рой

Радий, що це допомогло. Я дав коротку відповідь з деякими подальшими посиланнями.
амеба каже, що повернеться до Моніки

1
Однією з можливостей було б спочатку зменшити до дев'ятивимірного простору, що охоплює центроїди класу, а потім використовувати PCA для подальшого зменшення до двох вимірів.
А.Донда

Пов'язаний: stats.stackexchange.com/questions/16305 (.. , Можливо , дублювати, хоча , можливо , навпаки , я повернуся до цього після того, як я можу оновити свою відповідь нижче)
амеба говорить відновило Моніка

Відповіді:


27

Найбільш стандартний лінійний метод зменшення контрольованих розмірностей називається лінійним дискримінантним аналізом (LDA). Він призначений для пошуку маломірних проекцій, які максимально розбивають клас. Ви можете знайти багато інформації про це під нашим тегом та в будь-якому підручнику з машинного навчання, наприклад, наприклад, у вільнодоступному Елементах статистичного навчання .

Ось картинка, яку я знайшов тут при швидкому пошуку в Google; він показує одновимірні проекції PCA та LDA, коли в наборі даних є два класи (джерело, додане мною):

PCA проти LDA

Інший підхід називається частковими найменшими квадратами (PLS). LDA можна інтерпретувати як пошук проекцій, що мають найвищу кореляцію з фіктивними змінними, що кодують мітки групи (у цьому сенсі LDA можна розглядати як особливий випадок канонічного кореляційного аналізу, CCA). На противагу цьому, PLS шукає проекції, що мають найбільшу коваріацію з груповими мітками. Тоді як LDA дає лише вісь 1 для випадку двох груп (як на малюнку вище), PLS знайде багато осей, упорядкованих за зменшенням коваріації. Зауважте, що у наборі даних більше двох груп, є різні "аромати" PLS, які дадуть дещо інші результати.

Оновлення (2018)

Я повинен знайти час, щоб розширити цю відповідь; ця тема здається популярною, але моя оригінальна відповідь вище дуже коротка і недостатньо детальна.

Тим часом я згадаю Аналіз компонентів сусідства - лінійний метод, який знаходить проекцію, що максимізує -точність класифікації найближчих сусідів. Існує нелінійне узагальнення за допомогою нейронних мереж, див. Вивчення нелінійного вбудовування шляхом збереження структури сусіднього класу . Можна також використовувати класифікатори нейронної мережі з вузьким місцем, див. « Класифікатори глибоких пляшок» у розділі «Контрольоване зменшення розмірів» .k


1
приємна графіка, багато пояснює
Titou
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.