Запитання з тегом «pca»

Аналіз основних компонентів (PCA) - це метод лінійного зменшення розмірності. Це зводить багатоваріантний набір даних до меншого набору побудованих змінних, зберігаючи якомога більше інформації (стільки варіацій). Ці змінні, які називаються основними компонентами, є лінійними комбінаціями вхідних змінних.

1
У статті згадується «моделювання Монте-Карло для визначення кількості основних компонентів»; як це працює?
Я роблю аналіз Matlab на даних МРТ, де я провів PCA на матриці розміром 10304x236, де 10304 - кількість вокселів (вважайте їх пікселями), а 236 - кількість часових точок. PCA дає мені 236 власних значень та пов'язаних з ними коефіцієнтів. Це все добре. Однак, коли настав час вирішити, скільки компонентів …

1
Чому результати головної складової не співвідносяться?
Supose - це матриця середньосередніх даних. Матриця дорівнює , має чітких власних значень та власних векторів , ... , які є ортогональними.AA\mathbf AS=cov(A)S=cov(A)\mathbf S=\text{cov}(\mathbf A)m×mm×mm\times mmmms1s1\mathbf s_1s2s2\mathbf s_2smsm\mathbf s_m -м головний компонент (деякі люди називають їх «десятки») є вектор . Іншими словами, це лінійна комбінація стовпців , де коефіцієнти є …

2
Різниця між PCA та спектральною кластеризацією для невеликого вибіркового набору булевих ознак
У мене є набір даних з 50 зразків. Кожен зразок складається з 11 (можливо співвідносних) булевих ознак. Мені хотілося б дещо, як візуалізувати ці зразки на двовимірному графіку та перевірити, чи є серед 50-ти зразків кластери / групування. Я спробував наступні два підходи: (a) Запустіть PCA на матриці 50x11 та …

4
Модель історії дискретних подій дискретного часу (виживання) в R
Я намагаюся вписати в R дискретний час модель, але не знаю, як це зробити. Я читав, що ви можете організувати залежну змінну в різні рядки, по одній для кожного часу спостереження, і використовувати glmфункцію за допомогою посилання logit або cloglog. У цьому сенсі, у мене є три колонки: ID, Event(1 …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

3
Відстань махаланобіса через PCA, коли
Я маю матрицю, де - кількість генів і - кількість пацієнтів. Той, хто працював з такими даними, знає, що завжди більше . Використовуючи вибір функцій, я отримав вниз до більш розумного числа, однак все ж більший за .n × pн×pn\times ppppннnpppннnppppppннn Я хотів би обчислити подібність пацієнтів на основі їх …

2
Як знайти коваріаційну матрицю багатокутника?
Уявіть, що у вас є багатокутник, визначений набором координат (x1,y1)...(xn,yn)(x1,y1)...(xn,yn)(x_1,y_1)...(x_n,y_n) і його центр маси знаходиться в (0,0)(0,0)(0,0). Ви можете трактувати багатокутник як рівномірний розподіл з полігональною межею. Я шукаю метод, який знайде матрицю коваріації багатокутника . Я підозрюю, що матриця коваріації багатокутника тісно пов'язана з другим моментом області , але …

1
Як дітям вдається зібрати батьків у проекції PCA набору даних GWAS?
Візьміть 20 випадкових точок у 10-мірному просторі з кожною координатною лінією від N( 0 , 1 )N(0,1)\mathcal N(0,1). Розділіть їх на 10 пар ("пари") і додайте до набору даних середнє значення кожної пари ("дитина"). Потім зробіть PCA на отриманих 30 очках і побудуйте графік PC1 проти PC2. Відбувається чудова річ: …

3
PCA занадто повільний, коли обидва n, p великі: Альтернативи?
Налаштування проблеми У мене є точки даних (зображення) високого розміру (4096), які я намагаюся візуалізувати у 2D. З цією метою я використовую t-sne таким чином, як у наведеному нижче прикладі коду Карпаті . Документація scikit-learn рекомендує використовувати PCA, щоб спочатку зменшити розмірність даних: Настійно рекомендується використовувати інший метод зменшення розмірності …

2
Розуміння цього сюжету PCA щодо продажу морозива проти температури
Я беру фіктивні дані про температуру проти продажів морозива і класифікую їх за допомогою K Means (n ​​кластерів = 2), щоб виділити 2 категорії (повністю манекени). Зараз я роблю аналіз основних компонентів за цими даними, і моя мета - зрозуміти, що я бачу. Я знаю, що мета PCA - зменшити …

2
Скорочене зменшення розмірів
Враховуючи кількість функцій постійними, Barnes-Hut t-SNE має складністьO(nlogn)O(nlog⁡n)O(n\log n), випадкові прогнози та PCA мають складністьO(n)O(n)O(n) робить їх "доступними" для дуже великих наборів даних. З іншого боку, методи, що спираються на багатовимірне масштабування, мають:O(n2)O(n2)O(n^2) складність. Чи існують інші прийоми зменшення розмірів (крім тривіальних, як дивитись на перший kkk колонки, звичайно), складність …

1
Що означає клиноподібна форма сюжету PCA?
У своїй роботі по автоассоціатор для тексту класифікації Хінтон і Салахутдинов показав сюжет , отриманий на 2-мірної LSA (який тісно пов'язаний з PCA) . Застосовуючи PCA до абсолютно різних злегка високих розмірних даних, я отримав подібний зовнішній вигляд: (за винятком цього випадку я дуже хотів знати, чи є якась внутрішня …

3
Оберніть компоненти PCA, щоб вирівняти дисперсію в кожному компоненті
Я намагаюся зменшити розмірність і шум набору даних, виконуючи PCA на наборі даних і викидаючи останні кілька ПК. Після цього я хочу використовувати деякі алгоритми машинного навчання на решті ПК, і тому хочу нормалізувати дані, вирівнюючи дисперсію ПК, щоб алгоритми працювали краще. Один простий спосіб - просто нормалізувати дисперсію до …

3
Як я можу сказати, що в результатах PCA немає візерунка?
У мене є більш ніж 1000 зразків набору даних із 19 змінних. Моя мета - передбачити бінарну змінну на основі інших 18 змінних (бінарних та безперервних). Я впевнений, що 6 змінних прогнозування пов'язані з двійковою відповіддю, однак я хотів би додатково проаналізувати набір даних та шукати інші асоціації чи структури, …
9 pca 

1
Як застосувати регресію до основних компонентів для прогнозування вихідної змінної?
Я читав про основи основного компонентного аналізу з tutorial1 , link1 і LINK2 . У мене є набір даних зі 100 змінних (включаючи вихідну змінну Y), я хочу зменшити змінні до 40 за PCA, а потім передбачити змінну Y за допомогою цих 40 змінних. Проблема 1: Після отримання основних компонентів …
9 regression  pca 

2
Висновки з результатів аналізу основних компонентів
Я намагаюся зрозуміти результат аналізу основних компонентів, який виконується наступним чином: > head(iris) Sepal.Length Sepal.Width Petal.Length Petal.Width Species 1 5.1 3.5 1.4 0.2 setosa 2 4.9 3.0 1.4 0.2 setosa 3 4.7 3.2 1.3 0.2 setosa 4 4.6 3.1 1.5 0.2 setosa 5 5.0 3.6 1.4 0.2 setosa 6 5.4 …
9 r  pca  interpretation 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.