Запитання з тегом «pca»

Аналіз основних компонентів (PCA) - це метод лінійного зменшення розмірності. Це зводить багатоваріантний набір даних до меншого набору побудованих змінних, зберігаючи якомога більше інформації (стільки варіацій). Ці змінні, які називаються основними компонентами, є лінійними комбінаціями вхідних змінних.

1
Чому R-функції "princomp" і "prcomp" дають різні власні значення?
Для відтворення цього ви можете використовувати набір даних десятиборства {FactoMineR}. Питання полягає в тому, чому обчислені власні значення відрізняються від матриць коваріації. Ось власні значення, використовуючи princomp: > library(FactoMineR);data(decathlon) > pr <- princomp(decathlon[1:10], cor=F) > pr$sd^2 Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 1.348073e+02 2.293556e+01 9.747263e+00 1.117215e+00 3.477705e-01 1.326819e-01 Comp.7 Comp.8 …
22 r  pca 

2
Чи можна застосовувати PCA для даних часових рядів?
Я розумію, що аналіз основних компонентів (PCA) можна застосовувати в основному для даних поперечного перерізу. Чи може PCA ефективно використовуватись для даних часових рядів, вказавши рік як змінну часових рядів та нормально працює PCA? Я виявив, що динамічний PCA працює для панельних даних, а кодування в Stata призначене для даних …
22 time-series  pca 

2
Межа оцінювача регресії хребта "одинична дисперсія" при
Розглянемо регресію хребта з додатковим обмеженням, що вимагає, щоб має одиницю суми квадратів (еквівалентно одиниці дисперсії); при необхідності можна припустити, що має одиничну суму квадратів:y^y^\hat{\mathbf y}yy\mathbf y β^∗λ=argmin{∥y−Xβ∥2+λ∥β∥2}s.t.∥Xβ∥2=1.β^λ∗=arg⁡min{‖y−Xβ‖2+λ‖β‖2}s.t.‖Xβ‖2=1.\hat{\boldsymbol\beta}_\lambda^* = \arg\min\Big\{\|\mathbf y - \mathbf X \boldsymbol \beta\|^2+\lambda\|\boldsymbol\beta\|^2\Big\} \:\:\text{s.t.}\:\: \|\mathbf X \boldsymbol\beta\|^2=1. Яка межа β^∗λβ^λ∗\hat{\boldsymbol\beta}_\lambda^* коли λ→∞λ→∞\lambda\to\infty ? Ось кілька тверджень, які …

3
PCA, коли розмірність більша, ніж кількість зразків
Я натрапив на сценарій, коли у мене є 10 сигналів / людина на 10 осіб (тобто 100 зразків), що містять 14000 точок даних (розмірів), які мені потрібно передати класифікатору. Я хотів би зменшити розмірність цих даних, і PCA, здається, є способом зробити це. Однак мені вдалося знайти лише приклади PCA, …

3
Дивні кореляції у результатах SVD випадкових даних; вони мають математичне пояснення чи це помилка LAPACK?
Я спостерігаю дуже дивну поведінку за результатами SVD випадкових даних, які я можу відтворити як у Matlab, так і R. Це виглядає як чисельне числове питання в бібліотеці LAPACK; є це? Я витягую зразків з мірних гауссів з нульовою середньою і коваріацією тотожності: . Я зібрати їх в даних матриця …

4
Аналіз функціональних основних компонентів (FPCA): про що це?
Аналіз функціональних основних компонентів (FPCA) - це те, про що я натрапив і ніколи не зрозумів. Про що це все? Дивіться "Огляд функціонального аналізу основних компонентів" від Shang, 2011 , і я цитую: PCA стикається з серйозними труднощами в аналізі функціональних даних через "прокляття розмірності" (Bellman 1961). "Прокляття розмірності" походить …

2
PCA у нумері та склеарні дає різні результати
Я щось нерозумію. Це мій код за допомогою sklearn import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D from sklearn import decomposition from sklearn import datasets from sklearn.preprocessing import StandardScaler pca = decomposition.PCA(n_components=3) x = np.array([ [0.387,4878, 5.42], [0.723,12104,5.25], [1,12756,5.52], [1.524,6787,3.94], ]) pca.fit_transform(x) Вихід: array([[ -4.25324997e+03, -8.41288672e-01, …

4
Як спроектувати новий вектор на простір PCA?
Після проведення аналізу основних компонентів (PCA) я хочу спроектувати новий вектор на простір PCA (тобто знайти його координати в системі координат PCA). Я розрахував PCA мовою R за допомогою prcomp. Тепер я повинен мати можливість помножити свій вектор на матрицю обертання PCA. Чи повинні головні компоненти в цій матриці розташовуватися …
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

1
Що таке "ефект підкови" та / або "ефект дуги" в аналізі PCA / листування?
Існує багато методик екологічної статистики для розвідувального аналізу даних багатовимірних даних. Вони називаються методами «висвячення». Багато хто однаковий або тісно пов'язаний із поширеними методами в статистиці. Можливо, прототипним прикладом буде аналіз основних компонентів (PCA). Екологи можуть використовувати PCA та пов'язані з ними методи для дослідження «градієнтів» (мені не зовсім зрозуміло, …

2
Чи є якась перевага SVD над PCA?
Я знаю, як обчислити PCA та SVD математично, і я знаю, що обидва можна застосувати до регресії лінійних найменших квадратів. Основна перевага SVD математично виглядає в тому, що він може бути застосований до не квадратних матриць. Обидва фокусуються на розкладанні матриціОкрім переваги зазначеного SVD, чи є додаткові переваги чи розуміння, …
20 pca  least-squares  svd 

2
Методи обчислення факторних балів, а що таке матриця «коефіцієнт оцінки» в PCA або факторному аналізі?
Як я розумію, в PCA на основі кореляцій ми отримуємо факторні (= головний компонент в даному випадку) навантаження, які є не що інше, як кореляції між змінними та факторами. Тепер, коли мені потрібно генерувати факторні бали в SPSS, я можу безпосередньо отримати факторні бали кожного респондента за кожен фактор. Я …

6
PCA неагауссових даних
У мене є кілька швидких питань щодо PCA: Чи вважає PCA, що набір даних є гауссовим? Що трапляється, коли я застосовую PCA до властивих нелінійних даних? Враховуючи набір даних, процес спочатку повинен середньо-нормалізувати, встановити дисперсію на 1, взяти SVD, зменшити ранг і, нарешті, зіставити набір даних у новий простір зі …
20 pca  svd 

3
Я отримую "стрибкові" завантаження в Rola-застосуванні PCA в Р. Чи можу я це виправити?
Я маю 10 років даних про щоденні прибутки для 28 різних валют. Я хочу витягнути перший основний компонент, але замість того, щоб використовувати PCA протягом 10 років, я хочу застосувати 2-річне вікно, тому що поведінка валют змінюється, і тому я хочу це відобразити. Однак у мене є основна проблема, тобто …
20 r  pca 

4
Які правильні значення для точності та відкликання у кращих випадках?
Точність визначається як: p = true positives / (true positives + false positives) Чи правильно, що як true positivesі false positivesпідхід 0, точність наближається до 1? Те саме запитання для відкликання: r = true positives / (true positives + false negatives) Зараз я впроваджую статистичний тест, де мені потрібно обчислити …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

1
Як LDA, класифікаційна техніка, також виконує функції зменшення розмірності, як PCA
У цій статті автор пов'язує лінійний дискримінантний аналіз (LDA) з аналізом основних компонентів (PCA). Зі своїми обмеженими знаннями я не в змозі простежити, як LDA може бути дещо схожим на PCA. Я завжди вважав, що LDA - це форма алгоритму класифікації, схожа на логістичну регресію. Я буду вдячний за допомогу …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.