Запитання з тегом «pca»

Аналіз основних компонентів (PCA) - це метод лінійного зменшення розмірності. Це зводить багатоваріантний набір даних до меншого набору побудованих змінних, зберігаючи якомога більше інформації (стільки варіацій). Ці змінні, які називаються основними компонентами, є лінійними комбінаціями вхідних змінних.

2
Інтерпретація біплотів в аналізі основних компонентів
Я натрапив на цей чудовий підручник: Посібник зі статистичних аналізів за допомогою Р. Глава 13. Аналіз основних компонентів: Олімпійський шестиборство про те, як робити PCA на мові R. Я не розумію тлумачення рисунка 13.3: Тому я будую перший власний вектор проти другого власного вектора. Що це означає? Припустимо, власне значення, …

1
Як центрування впливає на значення PCA (для розпаду SVD та власних властивостей)?
Яку різницю мають центрирування (або де-значення) ваших даних для PCA? Я чув, що це полегшує математику або що перешкоджає домінуванню на першому ПК засобами змінних, але я відчуваю, що ще не зміг зрозуміти цю концепцію. Наприклад, головна відповідь тут Як центрування даних позбавляється від перехоплення в регресії та PCA? описується, …
30 r  pca  svd  eigenvalues  centering 

1
Робота аналізу основних компонентів або факторного аналізу на двійкові дані
У мене є набір даних з великою кількістю відповідей Так / Ні. Чи можна використовувати основні компоненти (PCA) або будь-який інший аналіз зменшення даних (наприклад, факторний аналіз) для цього типу даних? Підкажіть, будь ласка, як мені це робити за допомогою SPSS.

5
Як боротися з ієрархічними / вкладеними даними в машинному навчанні
Я поясню свою проблему на прикладі. Припустимо, ви хочете передбачити дохід фізичної особи за деякими ознаками: {Вік, стать, країна, регіон, місто}. У вас такий навчальний набір даних train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
Найкращі методи вилучення фактора в факторному аналізі
SPSS пропонує кілька методів вилучення факторів: Основні компоненти (що зовсім не факторний аналіз) Невагомі найменші квадрати Узагальнені найменші квадрати Максимальна ймовірність Основна вісь Альфа-факторинг Імідж-факторинг Ігноруючи перший метод, який не є факторним аналізом (а основним компонентним аналізом, PCA), який із цих методів є "найкращим"? Які відносні переваги різних методів? І …

3
Як виконати ортогональну регресію (всього найменших квадратів) за допомогою PCA?
Я завжди використовую lm()в R для виконання лінійної регресії на . Ця функція повертає коефіцієнт такий, щоуyyхxxββ\betaу= βх .y=βx.y = \beta x. Сьогодні я дізнався про загальні найменші квадрати і цю princomp()функцію (аналіз основних компонентів, PCA) можна використовувати для її виконання. Це має бути добре для мене (точніше). Я зробив …

4
Чому Ендрю Нг вважає за краще використовувати SVD, а не EIG коваріаційної матриці для PCA?
Я вивчаю PCA з курсу Coursera Ендрю Нґ та інших матеріалів. У першому завданні курсу Stanford NLP cs224n , а в лекційному відео від Ендрю Нг вони роблять сингулярне розкладання значення замість власного вектора розкладання коваріаційної матриці, і Ng навіть говорить, що SVD чисельно стабільніше, ніж ейгендекомпозиція. З мого розуміння, …

1
Чи є факторний аналіз або PCA для порядкових або двійкових даних?
Я завершив аналіз основних компонентів (PCA), дослідницький факторний аналіз (EFA) та підтверджуючий факторний аналіз (CFA), обробляючи дані за шкалою Likert (5-рівневі відповіді: немає, мало, деякі, ..) як безперервний змінна. Потім, використовуючи Lavaan, я повторив CFA, визначаючи змінні як категоричні. Мені хотілося б знати, які типи аналізів підходили б і були …

1
Чи може ступінь свободи бути цілим числом?
Коли я використовую GAM, це дає мені залишковий коефіцієнт DF (останній рядок у коді). Що це означає? Виходячи за приклад GAM, загалом, чи може число ступенів свободи бути нецілим числом?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

4
Що не так з t-SNE проти PCA для зменшення розмірів за допомогою R?
У мене є матриця з цифрами з плаваючою точкою 336x256 (336 бактеріальних геномів (стовпців) х 256 нормалізованих частот тетрануклеотидів (рядки), наприклад, кожен стовпець додає до 1). Я отримую хороші результати, коли запускаю свій аналіз, використовуючи принцип компонентного аналізу. Спочатку я обчислюю кластери kmeans за даними, потім запускаю PCA та розфарбовую …
27 r  pca  tsne 

5
Що може призвести до того, що PCA погіршить результати класифікатора?
У мене є класифікатор, на якому я роблю перехресну перевірку, разом із сотнею функцій, на які я роблю вибір вперед для пошуку оптимальних комбінацій функцій. Я також порівнюю це з тими ж експериментами з PCA, де я використовую потенційні функції, застосовую SVD, перетворюю вихідні сигнали на новий простір координат і …

4
Мінімальний розмір вибірки для PCA або FA, коли основною метою є оцінка лише кількох компонентів?
Якщо у мене є набір даних із спостереженнями та p змінними (розмірами), і зазвичай n невеликий ( n = 12 - 16 ), і p може варіюватися від малого ( p = 4 - 10 ) до, можливо, значно більшого ( p = 30 - 50 ).nnnpppnnnn=12−16n=12−16n=12-16pppp=4−10p=4−10p = 4-10p=30−50p=30−50p= 30-50 …

1
Чому PCA чутливий до людей, що втрачають спокій?
У цій SE є багато публікацій, в яких обговорюються надійні підходи до аналізу основних компонентів (PCA), але я не можу знайти єдиного хорошого пояснення того, чому PCA чутливий в першу чергу до людей, що переживають люди.

1
Яка норма помилки реконструкції мінімізована матрицею наближення низького рангу, отриманою за допомогою PCA?
З огляду на наближення PCA (або SVD) з матриці XXX з матрицею X , ми знаємо , що X є найкращим нізкоразрядним наближенням X .X^X^\hat XX^X^\hat XXXX Це відповідно до індукованої норми ∥⋅∥2∥⋅∥2\parallel \cdot \parallel_2 (тобто найбільшої норми власного значення) або відповідно до норми Frobenius ∥⋅∥F∥⋅∥F\parallel \cdot \parallel_F ?

7
Тестування на лінійну залежність серед стовпців матриці
У мене є кореляційна матриця повернень безпеки, детермінант якої дорівнює нулю. (Це трохи дивно, оскільки матриця кореляції вибірки та відповідна коваріаційна матриця теоретично повинні бути певними.) Моя гіпотеза полягає в тому, що принаймні один цінний папір лінійно залежить від інших цінних паперів. Чи є в R функція, яка послідовно перевіряє …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.