Запитання з тегом «dimensionality-reduction»

Посилається на методи зменшення великої кількості змінних чи розмірів, що охоплюються даними, до меншої кількості вимірів, зберігаючи якомога більше інформації про дані. Визначні методи включають PCA, MDS, Isomap тощо. Два основні підкласи методик: вилучення можливостей та вибір функцій.

3
PCA занадто повільний, коли обидва n, p великі: Альтернативи?
Налаштування проблеми У мене є точки даних (зображення) високого розміру (4096), які я намагаюся візуалізувати у 2D. З цією метою я використовую t-sne таким чином, як у наведеному нижче прикладі коду Карпаті . Документація scikit-learn рекомендує використовувати PCA, щоб спочатку зменшити розмірність даних: Настійно рекомендується використовувати інший метод зменшення розмірності …

1
Яка різниця між навчанням різноманітності та нелінійним зменшенням розмірності?
Яка різниця між навчанням різноманітності та нелінійним зменшенням розмірності ? Я бачив, як ці два терміни використовуються взаємозамінно. Наприклад: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : Навчання в колективі (часто його також називають нелінійним зменшенням розмірності) переслідує мету вбудувати дані, які спочатку лежать у просторі з високим розміром, у просторі з меншими розмірами, зберігаючи характерні …

2
Розуміння цього сюжету PCA щодо продажу морозива проти температури
Я беру фіктивні дані про температуру проти продажів морозива і класифікую їх за допомогою K Means (n ​​кластерів = 2), щоб виділити 2 категорії (повністю манекени). Зараз я роблю аналіз основних компонентів за цими даними, і моя мета - зрозуміти, що я бачу. Я знаю, що мета PCA - зменшити …

2
Скорочене зменшення розмірів
Враховуючи кількість функцій постійними, Barnes-Hut t-SNE має складністьO(nlogn)O(nlog⁡n)O(n\log n), випадкові прогнози та PCA мають складністьO(n)O(n)O(n) робить їх "доступними" для дуже великих наборів даних. З іншого боку, методи, що спираються на багатовимірне масштабування, мають:O(n2)O(n2)O(n^2) складність. Чи існують інші прийоми зменшення розмірів (крім тривіальних, як дивитись на перший kkk колонки, звичайно), складність …

1
Неможливо зробити цю мережу автоматичного кодеру належним чином (із згортковими та макспулярними шарами)
Мережі автоматичного кодування здаються набагато складнішими, ніж звичайні MLP-мережі класифікатора. Після декількох спроб використання Lasagne все, що я отримую на реконструйованому виході, - це щось, що в кращому випадку нагадує розмите усереднення всіх зображень бази даних MNIST, не залежно від того, що насправді є вхідною цифрою. Я вибрав структуру мереж …

2
Як довести, що припущення колектора правильне?
У машинному навчанні часто передбачається, що набір даних лежить на гладкому низькомірному колекторі (припущення про колектор), але чи є якийсь спосіб довести, що при дотриманні певних умов виконано, то набір даних справді (приблизно) генерується від маломірного гладкого колектора? Наприклад, задана послідовність даних де (скажімо послідовність зображень обличчя під різними кутами) …

3
Чи потрібно ICA спочатку запустити PCA?
Я переглянув документ, що базується на застосуванні, в якому сказано, що застосовувати PCA перед застосуванням ICA (використовуючи пакет FastICA). Моє запитання полягає в тому, чи вимагає ICA (fastICA) перший запуск PCA? Цей документ згадував про це ... також стверджується, що попереднє застосування PCA підвищує продуктивність ICA шляхом (1) відкидання невеликих …

4
Неортогональна методика, аналогічна PCA
Припустимо, у мене є набір даних з 2D точок, і я хочу виявити напрямки всіх локальних максимумів дисперсії в даних, наприклад: PCA не допомагає в цій ситуації, оскільки це ортогональне розкладання, і тому не вдається виявити обидві лінії, які я вказав синім кольором, швидше, його вихід може виглядати як той, …

2
Скасовані змінні в PCA або факторному аналізі
Я хочу зробити аналіз основних компонентів (факторний аналіз) на SPSS на основі 22 змінних. Однак деякі мої змінні дуже перекошені (косості, обчислені за SPSS, коливаються в межах 2–80!). Тож ось мої запитання: Чи слід тримати подібні змінні чи можу перетворити змінні на аналіз основних компонентів? Якщо так, то як би …


1
Як інтерпретувати результати зменшення розмірності / багатовимірного масштабування?
Я здійснив як декомпозицію SVD, так і багатовимірне масштабування 6-мірної матриці даних, щоб краще зрозуміти структуру даних. На жаль, усі сингулярні значення мають однаковий порядок, що означає, що розмірність даних дійсно є 6. Однак я хотів би мати можливість інтерпретувати значення сингулярних векторів. Наприклад, перший здається більш-менш рівним у кожному …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.