Запитання з тегом «pca»

Аналіз основних компонентів (PCA) - це метод лінійного зменшення розмірності. Це зводить багатоваріантний набір даних до меншого набору побудованих змінних, зберігаючи якомога більше інформації (стільки варіацій). Ці змінні, які називаються основними компонентами, є лінійними комбінаціями вхідних змінних.

3
Чи PCA ядра з лінійним ядром еквівалентний стандартному PCA?
Якщо в PCA ядра я вибираю лінійне ядро , результат буде відрізнятися від звичайного лінійного PCA ? Чи принципово різні рішення чи існує певне чітко визначене співвідношення?K(x,y)=x⊤yK(x,y)=x⊤yK(\mathbf{x},\mathbf{y}) = \mathbf x^\top \mathbf y
17 pca  kernel-trick 

1
Які ефективні алгоритми для обчислення сингулярного розкладання значення (SVD)?
У статті Вікіпедії про аналіз основних компонентів йдеться про це Існують ефективні алгоритми для обчислення SVD без необхідності формування матриці , тому обчислення SVD тепер є стандартним способом обчислення аналізу основних компонентів з матриці даних, якщо не потрібно лише декілька компонентів.XXXXTXXTXX^TX Може хтось скаже мені, про які ефективні алгоритми йдеться …
17 pca  algorithms  svd  numerics 

1
Чи справді надійні методи краще?
У мене є дві групи досліджуваних, A і B, кожна з розмірами приблизно 400 і приблизно 300 прогнозів. Моя мета - побудувати модель передбачення для бінарної змінної відповіді. Мій клієнт хоче побачити результат застосування моделі, побудованої з А на Б. потужність та точність --- див. стор. 90, Зовнішня перевірка. Я …

4
"Нормалізація" змінних для SVD / PCA
Припустимо , що ми маємо NNN вимірних величин, (a1,a2,…,aN)(a1,a2,…,aN)(a_1, a_2, \ldots, a_N) , ми робимо ряд M>NM>NM > N вимірювань, а потім хочете виконати сингулярне розкладання за результатами , щоб знайти осі самої високої дисперсії для MMM точок у NNN -вимірному просторі. ( Примітка: припустить , що кошти я вже …

3
Аналіз головних компонентів «назад»: скільки дисперсії даних пояснюється заданою лінійною комбінацією змінних?
Я провів аналіз головних компонентів шести змінних , , , , і . Якщо я правильно розумію, непроведений PC1 підказує мені, яка лінійна комбінація цих змінних описує / пояснює найбільшу дисперсію даних, а PC2 повідомляє мені, яка лінійна комбінація цих змінних описує наступну найбільшу дисперсію даних та ін.AAABBBCCCDDDEEEFFF Мені просто …

1
Міцна PCA та міцна відстань махаланобіса для виявлення зовнішньої форми
Надійна PCA (розроблена Candes et al. 2009 або ще краще Netrepalli et al. 2014 ) є популярним методом для виявлення багатоваріантного зовнішнього середовища , але відстань махаланобіса також може бути використана для виявлення зовнішньої тканини з урахуванням надійної, регульованої оцінки коваріаційної матриці . Мені цікаво (не) переваги використання одного методу …

1
Який належний показник асоціації змінної з компонентом PCA (на графіці біплоту / завантаження)?
Я використовую, FactoMineRщоб зменшити набір даних вимірювань до прихованих змінних. Карта змінна вище ясно для мене , щоб інтерпретувати, але я збентежений , коли мова йде про зв'язки між змінними і компонента 1. Подивившись на змінної карті, ddpі covдуже близько до компоненту в карті, і ddpAbsтрохи далі геть. Але це …

2
Чому перетворення даних в журнал перед проведенням аналізу основних компонентів?
Я слідую підручник тут: http://www.r-bloggers.com/computing-and-visualizing-pca-in-r/, щоб краще зрозуміти PCA. У посібнику використовується набір даних Iris і застосовується перетворення журналу до PCA: Зауважте, що у наведеному нижче коді ми застосовуємо перетворення журналу до безперервних змінних, як це запропоновано [1] та встановлених centerта scaleрівним TRUEу виклику prcompдля стандартизації змінних перед застосуванням PCA. …

1
Чи є компоненти PCA багатоваріантних даних Гаусса статистично незалежними?
Чи є компоненти PCA (в основному аналізі компонентів) статистично незалежними, якщо наші дані багатоваріантні, як правило, розподіляються? Якщо так, то як це можна продемонструвати / довести? Я запитую, тому що я побачив цей пост , де у верхній відповіді зазначено: PCA не робить явного припущення про гауссів. Він знаходить власні …
16 pca  independence  svd 

2
Показ просторової та часової кореляції на картах
У мене є дані для мережі метеостанцій по всій території США. Це дає мені кадр даних, який містить дату, широту, довготу та деяке вимірюване значення. Припустимо, що дані збираються раз на день та керуються регіональною погодою (ні, ми не збираємось вступати в цю дискусію). Я хотів би показати графічно, як …

2
Коли ми поєднуємо зменшення розмірності з кластеризацією?
Я намагаюся виконати кластеризацію на рівні документа. Я сконструював частотну матрицю терміна-документ і намагаюся кластеризувати ці великі розмірні вектори за допомогою k-засобів. Замість того, щоб безпосередньо кластеризувати, я спершу застосував сингулярний векторний розпад LSA (Latent Semantic Analysis) для отримання матриць U, S, Vt, вибрав відповідний поріг за допомогою діаграми екрана …

2
Оцінка надійності анкети: розмірність, проблемні елементи та чи слід використовувати альфа, лямбда6 чи якийсь інший індекс?
Я аналізую бали, які дають учасники експерименту. Я хочу оцінити надійність моєї анкети, яка складається з 6 пунктів, спрямованих на оцінку ставлення учасників до товару. Я обчислював альфа Кронбаха, обробляючи всі елементи як єдину шкалу (альфа - приблизно 0,6) і видаляв один елемент за один раз (макс. Альфа - приблизно …

3
Інтерпретація балів PCA
Чи може хто-небудь допомогти мені в інтерпретації результатів PCA? Мої дані походять з анкети щодо ставлення до ведмедів. Згідно з навантаженнями, я тлумачив один із своїх основних компонентів як "страх перед ведмедями". Чи будуть пов’язані оцінки цього основного компонента з тим, як кожен респондент вимірює рівень до цього основного компонента …
16 pca 

1
Який зв’язок між частковими найменшими квадратами, зменшеною регресією регресу та регресією основних компонентів?
Чи є регресія зі зниженим рангом та регресія головних компонентів лише особливими випадками часткових найменших квадратів? У цьому підручнику (Сторінка 6, "Порівняння цілей") зазначено, що коли ми робимо часткові найменші квадрати, не проектуючи X або Y (тобто "не часткові"), це стає відповідно регресією регресії чи регресією головного компонента. Аналогічне твердження …

2
Перехресна перевірка PCA та k-кратна в упаковці каре в R
Я щойно переглянув лекцію з курсу машинного навчання на курсі. У розділі, де професор обговорює PCA для попередньої обробки даних у контрольованих навчальних програмах, він каже, що PCA слід виконувати лише на навчальних даних, а потім відображення використовується для перетворення перехресних перевірок і тестових наборів. Дивіться також PCA та розділ …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.