Запитання з тегом «factor-analysis»

Факторний аналіз - це метод прихованої змінної зменшення розмірності, який замінює взаємокорельовані змінні меншою кількістю безперервних прихованих змінних, званих факторами. Вважається, що фактори є відповідальними за взаємозв'язки. [Для аналізу підтверджуючого фактора, будь ласка, використовуйте тег "підтверджуючий фактор". Крім того, термін "фактор" факторного аналізу не слід змішувати з "фактором" як категоричним предиктором регресії / ANOVA.]

14
Які відмінності між факторним аналізом та аналізом основних компонентів?
Схоже, що ряд статистичних пакетів, які я використовую, поєднує ці два поняття разом. Однак мені цікаво, чи існують різні припущення чи "формальності" даних, які повинні бути правдивими, щоб використовувати одне за іншим. Справжній приклад був би неймовірно корисним.


6
Чи є якісь вагомі причини використовувати PCA замість EFA? Також може PCA бути заміною факторного аналізу?
У деяких дисциплінах PCA (аналіз основних компонентів) систематично використовується без будь-якого обґрунтування, а PCA та EFA (дослідницький факторний аналіз) розглядаються як синоніми. Тому я нещодавно використовував PCA для аналізу результатів перевірки масштабу (21 пункт за 7-бальною шкалою Лікерта, передбачається складати 3 коефіцієнта по 7 предметів), і рецензент запитує мене, чому …

2
Який взаємозв'язок між незалежним компонентним аналізом та факторним аналізом?
Я новачок у незалежному аналізі компонентів (ICA) і просто розумію цей метод. Мені здається, що ІКА схожа на Факторний аналіз (FA) за одним винятком: ICA передбачає, що спостережувані випадкові величини є лінійною комбінацією незалежних компонентів / факторів, які не є гауссовими, тоді як класична модель FA передбачає, що спостережувані випадкові …

8
Чи PCA супроводжується обертанням (наприклад, varimax), як і раніше PCA?
Я намагався відтворити деякі дослідження (за допомогою PCA) від SPSS в Р. На моєму досвіді, principal() функція з пакету psychбула єдиною функцією, яка наблизилася (або якщо моя пам'ять слугує мені правильно, мертвим), щоб відповідати результату. Щоб відповідати тим самим результатам, що і в SPSS, мені довелося використовувати параметр principal(..., rotate …

2
Як факторний аналіз пояснює коваріацію, тоді як PCA пояснює дисперсію?
Ось цитата з книги Бішопа "Розпізнавання образів та машинне навчання", розділ 12.2.4 "Факторний аналіз": У відповідності з виділеної частини, факторний аналіз фіксує ковариации між змінними в матриці WWW . Цікаво, ЯК ? Ось як я це розумію. Скажімо, xxx - спостережувана ppp -вимірна величина, WWW - матриця завантаження факторів, а …

3
Чи має ознака балів чи навантажень в PCA чи FA значення? Чи можу я перевернути знак?
Я провів аналіз основних компонентів (PCA) з R, використовуючи дві різні функції ( prcompі princomp), і зауважив, що бали PCA відрізняються за ознакою. Як це може бути? Врахуйте це: set.seed(999) prcomp(data.frame(1:10,rnorm(10)))$x PC1 PC2 [1,] -4.508620 -0.2567655 [2,] -3.373772 -1.1369417 [3,] -2.679669 1.0903445 [4,] -1.615837 0.7108631 [5,] -0.548879 0.3093389 [6,] 0.481756 …
37 r  pca  factor-analysis 

1
Яка інтуїтивно зрозуміла причина обертання у Факторному аналізі / PCA та як вибрати відповідне обертання?
Мої запитання Яка інтуїтивно зрозуміла причина обертання факторів у факторному аналізі (або компонентів у PCA)? Моє розуміння: якщо змінні майже однаково завантажені у верхніх компонентах (або факторах), то, очевидно, складно диференціювати компоненти. Тож у цьому випадку можна використовувати обертання для кращої диференціації компонентів. Це правильно? Які наслідки ротації? На які …

3
PCA щодо кореляції чи коваріації: чи PCA щодо кореляції коли-небудь має сенс? [зачинено]
В основному аналізі компонентів (PCA) можна вибрати або коваріаційну матрицю, або кореляційну матрицю, щоб знайти компоненти (з відповідних власних векторів). Вони дають різні результати (завантаження ПК та бали), оскільки власні вектори між обома матрицями не рівні. Я розумію, що це спричинене тим, що вектор і його стандартизація Z не можуть …

1
Робота аналізу основних компонентів або факторного аналізу на двійкові дані
У мене є набір даних з великою кількістю відповідей Так / Ні. Чи можна використовувати основні компоненти (PCA) або будь-який інший аналіз зменшення даних (наприклад, факторний аналіз) для цього типу даних? Підкажіть, будь ласка, як мені це робити за допомогою SPSS.

5
Як боротися з ієрархічними / вкладеними даними в машинному навчанні
Я поясню свою проблему на прикладі. Припустимо, ви хочете передбачити дохід фізичної особи за деякими ознаками: {Вік, стать, країна, регіон, місто}. У вас такий навчальний набір даних train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
Найкращі методи вилучення фактора в факторному аналізі
SPSS пропонує кілька методів вилучення факторів: Основні компоненти (що зовсім не факторний аналіз) Невагомі найменші квадрати Узагальнені найменші квадрати Максимальна ймовірність Основна вісь Альфа-факторинг Імідж-факторинг Ігноруючи перший метод, який не є факторним аналізом (а основним компонентним аналізом, PCA), який із цих методів є "найкращим"? Які відносні переваги різних методів? І …

1
Чи є факторний аналіз або PCA для порядкових або двійкових даних?
Я завершив аналіз основних компонентів (PCA), дослідницький факторний аналіз (EFA) та підтверджуючий факторний аналіз (CFA), обробляючи дані за шкалою Likert (5-рівневі відповіді: немає, мало, деякі, ..) як безперервний змінна. Потім, використовуючи Lavaan, я повторив CFA, визначаючи змінні як категоричні. Мені хотілося б знати, які типи аналізів підходили б і були …

1
Обчислювальна повторюваність ефектів від lmer-моделі
Я щойно натрапив на цю статтю , в якій описано, як обчислити повторюваність (він же - надійність, також внутрішньокласова кореляція) вимірювання за допомогою моделювання змішаних ефектів. R-код буде: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

1
Чи може ступінь свободи бути цілим числом?
Коли я використовую GAM, це дає мені залишковий коефіцієнт DF (останній рядок у коді). Що це означає? Виходячи за приклад GAM, загалом, чи може число ступенів свободи бути нецілим числом?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.