Запитання з тегом «pca»

Аналіз основних компонентів (PCA) - це метод лінійного зменшення розмірності. Це зводить багатоваріантний набір даних до меншого набору побудованих змінних, зберігаючи якомога більше інформації (стільки варіацій). Ці змінні, які називаються основними компонентами, є лінійними комбінаціями вхідних змінних.

28
Ознайомлення з аналізом основних компонентів, власних векторів та власних значень
У сьогоднішньому класі розпізнавання шаблонів мій професор розповів про PCA, власні вектори та власні значення. Я зрозумів математику цього. Якщо мене попросять знайти власні значення тощо. Я зроблю це правильно, як машина. Але я цього не зрозумів . Я не зрозумів цього. Я не відчував цього. Я дуже вірю в …

3
Зв'язок між SVD та PCA. Як використовувати SVD для виконання PCA?
Аналіз основних компонентів (PCA) зазвичай пояснюється шляхом власного розкладання коваріаційної матриці. Тим НЕ менше, він також може бути виконаний з допомогою сингулярного розкладання (SVD) матриць даних . Як це працює? Який зв’язок між цими двома підходами? Який взаємозв'язок між SVD та PCA?ХX\mathbf X Або іншими словами, як використовувати SVD матриці …

14
Які відмінності між факторним аналізом та аналізом основних компонентів?
Схоже, що ряд статистичних пакетів, які я використовую, поєднує ці два поняття разом. Однак мені цікаво, чи існують різні припущення чи "формальності" даних, які повинні бути правдивими, щоб використовувати одне за іншим. Справжній приклад був би неймовірно корисним.


6
Чи можна застосувати аналіз основних компонентів до наборів даних, що містять суміш безперервних і категоричних змінних?
У мене є набір даних, який містить як безперервні, так і категоричні дані. Я аналізую, використовуючи PCA, і мені цікаво, чи добре включати категоричні змінні у складі аналізу. Я розумію, що PCA можна застосовувати лише до постійних змінних. Це правильно? Якщо їх не можна використовувати для категоричних даних, які альтернативи …


1
Як повернути PCA та реконструювати оригінальні змінні з декількох основних компонентів?
Аналіз основних компонентів (PCA) може бути використаний для зменшення розмірності. Після такого зменшення розмірності, як можна приблизно реконструювати вихідні змінні / ознаки з невеликої кількості основних компонентів? Як варіант, як можна видалити або вилучити з даних кілька основних компонентів? Іншими словами, як повернути PCA? Враховуючи, що PCA тісно пов'язаний з …

6
Чи слід видаляти сильно корельовані змінні, перш ніж робити PCA?
Я читаю документ, де автор відкидає кілька змінних через високу кореляцію з іншими змінними, перш ніж робити PCA. Загальна кількість змінних становить близько 20. Це дає якісь переваги? Для мене це виглядає як накладні витрати, оскільки PCA повинен це впоратися автоматично.
111 correlation  pca 

4
PCA і пропорція дисперсії пояснюється
Загалом, що мається на увазі під тим, що частка дисперсії в аналізі на зразок PCA пояснюється першою основною складовою? Чи може хтось пояснити це інтуїтивно, але також дати точне математичне визначення того, що означає "роз’яснення дисперсії" з точки зору аналізу основних компонентів (PCA)?хxx Для простої лінійної регресії r-квадрат найкращої підходящої …

3
Приклад: регресія LASSO з використанням glmnet для двійкового результату
Я починаю балуватися з використанням glmnetз LASSO регресією , де мій результат становить інтерес дихотомический. Я створив невеликий макетний кадр даних нижче: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

6
Чи є якісь вагомі причини використовувати PCA замість EFA? Також може PCA бути заміною факторного аналізу?
У деяких дисциплінах PCA (аналіз основних компонентів) систематично використовується без будь-якого обґрунтування, а PCA та EFA (дослідницький факторний аналіз) розглядаються як синоніми. Тому я нещодавно використовував PCA для аналізу результатів перевірки масштабу (21 пункт за 7-бальною шкалою Лікерта, передбачається складати 3 коефіцієнта по 7 предметів), і рецензент запитує мене, чому …


4
Як уявити, що робить канонічний кореляційний аналіз (порівняно з тим, що робить аналіз основних компонентів)?
Канонічний кореляційний аналіз (CCA) - це техніка, що стосується аналізу основних компонентів (PCA). Хоча легко навчити PCA або лінійну регресію за допомогою діаграми розкидання (див. Кілька тисяч прикладів пошуку зображень google), я не бачив подібного інтуїтивного двовимірного прикладу для CCA. Як наочно пояснити, що робить лінійна CCA?

4
Яка різниця між R функціями prcomp і princomp?
Я порівняв ?prcompі ?princompзнайшов щось про аналіз основних компонентів Q-mode та R-mode (PCA). Але якщо чесно - я цього не розумію. Чи може хтось пояснити різницю, а може навіть пояснити, коли застосовувати яку?
69 r  pca 

5
Завантаження проти власних векторів у PCA: коли використовувати той чи інший?
При аналізі основних компонентів (PCA) ми отримуємо власні вектори (одиничні вектори) та власні значення. Тепер визначимо навантаження як Loadings=Eigenvectors⋅Eigenvalues−−−−−−−−−−√.Loadings=Eigenvectors⋅Eigenvalues.\text{Loadings} = \text{Eigenvectors} \cdot \sqrt{\text{Eigenvalues}}. Я знаю, що власні вектори - це лише напрямки, а навантаження (як визначено вище) також включає дисперсію за цими напрямками. Але для свого кращого розуміння я хотів …
67 pca 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.