Чи PCA супроводжується обертанням (наприклад, varimax), як і раніше PCA?


63

Я намагався відтворити деякі дослідження (за допомогою PCA) від SPSS в Р. На моєму досвіді, principal() функція з пакету psychбула єдиною функцією, яка наблизилася (або якщо моя пам'ять слугує мені правильно, мертвим), щоб відповідати результату. Щоб відповідати тим самим результатам, що і в SPSS, мені довелося використовувати параметр principal(..., rotate = "varimax"). Я бачив документи, що розповідають про те, як вони робили PCA, але, виходячи з результатів SPSS та використання обертання, це більше схоже на аналіз факторів.

Питання: Чи PCA навіть після обертання (використання varimax) все ще PCA? У мене було враження, що це може бути насправді факторний аналіз ... Якщо це не так, то які деталі я пропускаю?


4
Технічно все, що ви маєте після обертання, вже не є основними складовими.
Гала

2
Само обертання його не змінює. Повернутий чи ні, аналіз - який він є. PCA не є FA у вузькому визначенні "факторний аналіз", а PCA - FA у більш широкому визначенні "факторний аналіз". stats.stackexchange.com/a/94104/3277
ttnphns

1
Привіт @Roman! Я переглядав цю стару тему, і я здивований, що ви позначили відповідь Бретта як прийняту. Ви запитували, чи все ще обертання PCA + PCA, чи це FA; Відповідь Бретта не говорить жодного слова про обертання! Ні в ньому не згадується principalфункція, про яку ви запитували. Якщо його відповідь справді відповіла на ваше запитання, то, можливо, ваше питання недостатньо сформульовано; Ви б розглядали можливість редагування? Інакше я вважаю, що відповідь доктора набагато ближче до того, що насправді відповідає на ваше запитання. Зауважте, що ви можете будь-коли змінити прийняту відповідь.
Амеба каже, що поверніть Моніку

1
Додам, що я працюю над новою, більш детальною відповіддю на ваше запитання, тому мені цікаво дізнатися, чи насправді ви все ще цікавитеся цією темою. Зрештою, минуло чотири роки, і вже минули роки ...
Амеба каже Відновити Моніку

3
@amoeba, на жаль, в майбутньому я не можу відповісти, чому я прийняв цю відповідь. Переглядаючи старого звіра через 4,5 роки, я зрозумів, що жодна з відповідей не наблизилася. mbq починається багатообіцяюче, але не відповідає поясненням. Але незалежно від того, тема дуже заплутана, можливо, завдяки неправильній термінології в популярному статистичному програмному забезпеченні соціальних наук, яку я не буду називати абревіатурою з чотирьох літер. Будь ласка, напишіть відповідь і напишіть мені, я прийму її, якщо знайду її ближче до моєї відповіді на моє запитання.
Роман Луштрик

Відповіді:


53

Це питання багато в чому стосується визначень PCA / FA, тому думки можуть відрізнятися. Моя думка, що PCA + varimax не слід називати PCA чи FA, а досить чітко називатись, наприклад, "PCA з поворотом у варімаксі".

Додам, що це досить заплутана тема. У цій відповіді я хочу пояснити , що поворот на насправді є ; для цього знадобиться деяка математика. Випадковий читач може перейти безпосередньо до ілюстрації. Тільки тоді ми можемо обговорити, чи слід обертання PCA + слід називати "PCA".

Одне посилання на книгу Джолліффа «Аналіз основних компонентів», розділ 11.1 «Обертання основних компонентів», але я вважаю, що це може бути зрозумілішим.


Нехай - матриця даних яку, як ми вважаємо, зосереджена. PCA дорівнює ( див. Мою відповідь тут ) на розклад значення сингулярного значення: . На цю декомпозицію є два еквівалентні, але безкоштовні погляди: перегляд більш «проекції» в стилі PCA і більш «латентні змінні» в стилі FA. n × p X = U S VXn×pX=USV

Згідно з поданням у стилі PCA, ми знайшли купу ортогональних напрямків (це власні вектори матриці коваріації, які також називаються "основні напрямки" або "осі") та "головні компоненти" ( також називається головним компонентом "балів") - це прогнози даних по цих напрямках. Основні компоненти не пов'язані між собою, перший має максимально можливу дисперсію і т. Д. Ми можемо записати:U S X = U SV = Оцінки Основні напрямки .VUS

X=USV=ScoresPrincipal directions.

Згідно з поглядом у стилі FA, ми знайшли деякі некорельовані одиничні дисперсії "прихованих факторів", які спричиняють спостережувані змінні через "навантаження". Дійсно, є стандартизованими основними компонентами (некорельовані та з одиничною дисперсією), і якщо ми визначаємо навантаження як , тоді (Зверніть увагу, що .) Обидва погляди еквівалентні. Зауважимо, що навантаження - це власні вектори, масштабовані за відповідними власними значеннями ( є власними значеннями матриці коваріації).L=VS/U~=n1U X=L=VS/n1

X=n1U(VS/n1)=U~L=Standardized scoresLoadings.
S=SS/n1

(Я повинен додати в дужках, що PCA FA ; FA явно спрямований на пошук прихованих факторів, які лінійно відображаються до спостережуваних змінних за допомогою навантажень; він більш гнучкий, ніж PCA і дає різні навантаження. Ось чому я вважаю за краще називати вище "Перегляд у стилі FA на PCA", а не FA, хоча деякі люди вважають це одним із методів FA.)

Тепер, що робить обертання? Наприклад, ортогональне обертання, наприклад, варимакс. По-перше, він розглядає лише компоненти, тобто:Тоді він займає квадратний ортогональний матриця і підключає до цього розкладу: де поворотні навантаження задаютьсяk<p

XUkSkVk=U~kLk.
k×kTTT=I
XUkSkVk=UkTTSkVk=U~rotLrot,
˜ U r o t = ˜ U k T T L r o tLrot=LkT, І обертали стандартизовані бали даються . (Мета цього - знайти таким, щоб став максимально наближеним до того, наскільки це можливо, для полегшення його інтерпретації.)U~rot=U~kTTLrot

Зауважте, що обертається: (1) стандартизовані бали, (2) завантаження. Але не сирі рахунки та не основні напрямки! Тож обертання відбувається в латентному просторі, а не в початковому просторі. Це абсолютно важливо.

З точки зору стилю FA, нічого особливого не відбулося. (A) Латентні фактори все ще є некорельованими та стандартизованими. (B) Вони все ще відображаються до спостережуваних змінних за допомогою (обертових) навантажень. (C) Кількість дисперсії, що охоплюється кожним компонентом / коефіцієнтом, визначається сумою квадратних значень відповідного стовпчика навантажень у . (D) Геометрично навантаження все ще охоплюють той самий -вимірний підпростір у (підпростір, що охоплюється першими власними векторами PCA). (E) Наближення до та помилка відновлення взагалі не змінилися. (F) Матриця коваріації все ще наближається однаково добре: k R p k XLrotkRpkX

ΣLkLk=LrotLrot.

Але точка зору в стилі PCA практично зруйнувалася. Поворотні навантаження більше не відповідають ортогональним напрямкам / осям у , тобто стовпці не є ортогональними! Гірше, якщо ви [ортогонально] запроектуєте дані на напрямки, задані поворотними навантаженнями, ви отримаєте співвіднесені (!) Прогнози і не зможете відновити бали. [Натомість для обчислення стандартизованих балів після обертання потрібно помножити матрицю даних на псевдоінверсію навантажень . Крім того, можна просто обертати оригінальні стандартизовані бали за допомогою матриці обертання:RpLrotU~rot=X(Lrot+)U~rot=U~T ] Також обертові компоненти послідовно не фіксують максимальну кількість дисперсії: дисперсія перерозподіляється між компонентами (навіть хоча всі обертові компоненти охоплюють рівно стільки ж дисперсії, скільки всі вихідні головні компоненти).kk

Ось ілюстрація. Дані - це 2D еліпс, розтягнутий уздовж основної діагоналі. Перший головний напрямок - головна діагональ, другий - ортогональний. Вектори завантаження PCA (власні вектори, масштабовані власними значеннями) відображаються червоним кольором - вказують в обох напрямках, а також розтягуються постійним коефіцієнтом видимості. Потім я застосував до навантажень ортогональне обертання на . Отримані вектори навантаження показані пурпуровими. Зверніть увагу, як вони не є ортогональними (!).30

Обертання PCA

Тут інтуїція стилю FA полягає в наступному: уявіть собі «прихований простір», де точки заповнюють невелике коло (походять від 2D-гаусса з одиничними відхиленнями). Цей розподіл точок потім розтягується вздовж навантажень PCA (червоний), щоб стати еліпсом даних, який ми бачимо на цій фігурі. Однак однаковий розподіл точок можна повернути і потім розтягнути вздовж обертових навантажень PCA (пурпурового), щоб стати тими самими еліпсами даних .

[Щоб насправді побачити, що ортогональне обертання вантажів - це обертання , потрібно подивитися на біплот PCA; там вектори / промені, що відповідають оригінальним змінним, просто обертаються.]


Підведемо підсумки. Після ортогонального обертання (наприклад, варимакса) осі "обертаються-головні" не є ортогональними, і ортогональні проекції на них не мають сенсу. Тож варто скористатися цілою точкою осі / проекції точки зору. Було б дивно все ще називати його PCA (що стосується проекцій з максимальною дисперсією тощо).

З точки зору стилю FA, ми просто обертали наші (стандартизовані та некорельовані) латентні фактори, що є дійсною операцією. У ФА немає "прогнозів"; натомість приховані фактори породжують спостережувані змінні за допомогою навантажень. Ця логіка досі зберігається. Однак ми почали з основних компонентів, які насправді не є факторами (оскільки PCA не є тим же, що і FA). Тож було б дивно називати це і ФА.

Замість того, щоб обговорювати, чи варто «називати» PCA чи FA, я б запропонував бути ретельним у визначенні точної використовуваної процедури: «PCA з наступним обертанням varimax».


Postcriptum. Це є можливим розглянути альтернативну процедуру обертання, де вставляється між і . Це призведе до повороту неочищених балів та власних векторів (замість стандартизованих балів та навантажень). Найбільша проблема такого підходу полягає в тому, що після такого «обертання» бали більше не будуть співвідноситись, що є досить фатальним для PCA. Це можна зробити, але це не так, як ротації зазвичай розуміються та застосовуються.TTUSV


Я не повністю зрозумів текст навколо картини. Ви використовуєте "навантаження" кілька разів: PCA loading vectors... are shown in red, stretched along the rotated PCA loadings (magenta). Цікаво, як "навантаження" або їх "вектор" можуть бути показані як осі на розсіювачі даних. Чи можете ви, будь ласка, зробити це більш зрозумілим? А ідея "розтягуватися"? Дякую.
ttnphns

1
Це може бути пов’язано з довгою дискусією, яку ми нещодавно мали про завантаження "охоплює підпростір" у змінному просторі чи ні. У цій відповіді я використовував "вектор завантаження" (або просто "навантаження") для позначення одного стовпчика матриці навантажень. У моєму прикладі дані є двовимірними, тобто є дві змінні, і тому завантаження - це 2D вектори. Отже, я можу побудувати їх на розсіювачі даних (я масштабував їх деяким постійним фактором для видимості). У PCA, навантаження, звичайно, є ортогональними (вони пропорційні власним векторам). Після варімаксу їх більше немає.
амеба каже, що повернеться до Моніки

Абзац про "розтягування" (відразу після малюнка) я, мабуть, мушу краще проілюструвати; Я бачу, що це не дуже зрозуміло.
амеба каже, що повернеться до Моніки

Я думав, що якщо ви маєте на меті побудувати ортогональність чи неортогональність деяких векторів (наприклад, навантажень), вам слід намалювати їх як стрілки. А може, я вас не розумію?
ttnphns

1
Я погоджуюся, що використовувати стрілки було б краще, я лише опустив "наконечники стріл" для зручності побудови графіків. Я можу повторити цю цифру, щоб додати їх. Також я намалював кожен вектор, вказуючи в обох напрямках, оскільки їх знаки не мають значення.
амеба каже, що повернеться до Моніки

29

Аналіз основних компонентів (PCA) та загальний факторний аналіз (CFA) - це різні методи. Часто вони дають подібні результати, і PCA використовується як метод вилучення за замовчуванням у процедурах аналізу факторів SPSS. Це, безперечно, призводить до великої плутанини щодо розрізнення між ними.

Суть полягає в тому, що це дві різні моделі, концептуально. У PCA компоненти - це фактичні ортогональні лінійні комбінації, які максимізують загальну дисперсію. У FA фактори є лінійними комбінаціями, які максимізують спільну частину дисперсії - основні "приховані конструкції". Ось чому ФА часто називають "загальним факторним аналізом". FA використовує різноманітні процедури оптимізації, і результат, на відміну від PCA, залежить від використовуваної процедури оптимізації та вихідних точок для цих процедур. Просто не існує жодного унікального рішення.

У R функція factanal () забезпечує CFA максимальну ймовірність вилучення. Отже, не слід сподіватися, що він відтворить результат SPSS, заснований на вилученні PCA. Це просто не та сама модель чи логіка. Я не впевнений, чи отримали б ви такий самий результат, якби ви використовували SPSS-максимум імовірності вилучення, оскільки вони не можуть використовувати той самий алгоритм.

На краще або на гірше в R, ви можете, однак, відтворити змішаний "факторний аналіз", який надає SPSS за замовчуванням. Ось процес у Р. За допомогою цього коду я можу відтворити результат основного компонента SPSS "Факторний аналіз" за допомогою цього набору даних. (За винятком знаку, який є невизначеним). Цей результат також може бути повернутий за допомогою будь-якого з доступних методів обертання Rs.

# Load the base dataset attitude to work with.
data(attitude)
# Compute eigenvalues and eigen vectors of the correlation matrix.
pfa.eigen<-eigen(cor(attitude))
# Print and note that eigen values are those produced by SPSS.
# Also note that SPSS will extract 2 components as eigen values > 1 = 2
pfa.eigen$values
# set a value for the number of factors (for clarity)
factors<-2
# Extract and transform two components.
pfa.eigen$vectors [ , 1:factors ]  %*% 
+ diag ( sqrt (pfa.eigen$values [ 1:factors ] ),factors,factors )

+1 за те, що дійсно допомагає зменшити плутанину навколо SPSS проти R тут. Залишаються два питання: Що означає R prcompабо princompробить порівняно зі змішаним підходом SPSS? Що насправді робить SPSS шляхом видобутку?
hans0l0

ах, і чи можу я додати, як обчислити бали, наприклад, PC1 до вашого рішення: стандартизувати zz <- scale(attitude,T,T)та pc1 <- zz %*% solve(cor(attitude),lamba[,1]). Де лямбда - результат останнього рядка прикладу @Brett Magills
hans0l0

3
-1. Хоча в цій відповіді багато корисної інформації, я вважаю, що вона взагалі не відповідає на початкове запитання. Первісне питання полягав у тому, чи все-таки обертання PCA + можна вважати PCA (вірніше FA). Ваша відповідь навіть не згадує обертання! То як це може бути відповіддю?
Амеба каже: Відновити Моніку

1
Можливо, буде корисно відзначити, що загальнофакторний аналіз не є тим самим, як аналіз конфірмаційного фактора (також CFA), що є зовсім іншою процедурою.
Річард Бордер

11

Ця відповідь полягає у тому, щоб у формі діаграми шляху представити речі, про які @amoeba міркував у своїй глибокій (але трохи складній) відповіді на цю тему (я начебто з цим погоджуюсь на 95%) і те, як вони мені здаються .

У власній мінімальній формі PCA - це специфічне ортогональне обертання корельованих даних до некорельованої форми, причому основні компоненти послідовно проскакують все менше і менше загальної мінливості. Якщо зменшення розмірності все, що ми хочемо, ми зазвичай не обчислюємо завантаження і те, що вони тягнуть за собою. Ми задоволені (сировина) основних показників компонентів . [Будь ласка, зауважте, що позначення на графіку точно не відповідають @ amoeba, - я дотримуюся того, що я приймаю в деяких своїх інших відповідях.]P

На графіку я беру простий приклад двох змінних p=2і використовую обидва витягнуті основні компоненти. Хоча ми зазвичай зберігаємо лише кілька перших m<pкомпонентів, для теоретичного питання, яке ми розглядаємо ("Чи PCA з обертанням PCA чи що?"), Не має значення, якщо зберегти mабо всі pз них; принаймні в моїй конкретній відповіді.

Хитрість навантажень полягає в тому, щоб витягнути масштаб (величина, мінливість, інерція ) з компонентів (необроблені бали) і на коефіцієнти (власні вектори), залишивши колишній голий "каркас" (стандартизований пр . бали компонентів), а останні - м’ясисті (завантаження). Ви відновите дані однаково добре з обома: . Але завантаження відкриває перспективи: (i) інтерпретувати компоненти; (іі) повертати; (iii) відновити кореляції / коваріації змінних. Це все пов'язано з тим, що мінливість даних була записана в завантаженнях, як їх навантаження.LVPzAX=PV=PzA

І вони можуть повернути це навантаження назад до точок даних будь-коли - зараз або після обертання . Якщо ми уявляємо ортогональне обертання, таке як varimax, це означає, що ми хочемо, щоб компоненти не залишалися некорельованими після завершення обертання. Лише дані зі сферичною коваріаційною матрицею при обертанні ортогонально зберігають некорельованість. І вуаля, стандартизовані основні компоненти (які в машинному навчанні часто називають " PCA даними") - це магічні дані ( насправді пропорційні лівій, тобто рядкові власні вектори даних). Поки ми шукаємо матрицю обертання varimaxPzPzQщоб полегшити інтерпретацію навантажень, точки даних пасивно очікують у своїй цнотливій сферичності та тотожності (або «білині»).

Після того, як буде знайдено, обертання ним еквівалентно звичайному способу обчислення стандартизованих балів основного компонента через узагальнену обернену матрицю завантаження, - на цей раз, обертових навантажень (див. Графік ). В результаті головні компоненти, , є некорельованими, як ми цього хотіли, плюс дані відновлюються ними так само добре, як і до обертання: . Потім ми можемо їх повернути їх масштаб обложений (і , відповідно , повернений) в - до unstandardize їх: .QPzArCzX=PzA=CzArArC

Ми повинні знати, що "головні компоненти, що обертаються варімаксом", вже не є основними компонентами: я використовував позначення Cz, C замість Pz, P, щоб підкреслити це. Вони просто "компоненти". Основні компоненти унікальні, але компонентів може бути багато. Крім Varimax Повороти дасть інші нові змінні також звані компоненти , а також некоррелірованних, крім наших тих.C

Також слід сказати, що основні компоненти, що повертаються на варімакс (або іншим чином ортогонально обертаються), (тепер просто "компоненти"), хоча залишаються некорельованими, ортогональними, не означають, що їх навантаження також все ще є ортогональними. Стовпці взаємно ортогональні (як і власні вектори ), але не стовпці (див. Також виноску тут ).AVAr

І нарешті - обертання основних сирих компонентів з нашими не корисними діями. Ми отримаємо кілька корельованих змінних з проблемним значенням. здавалося, оптимізував (певним чином) конфігурацію навантажень, які поглинули всю шкалу в них . ніколи не навчався обертати точки даних з усією шкалою, що залишилася на них. Обертовий з буде еквівалентним обертовим власним векторам з (вPQ"C"QQPQ VQVr), а потім обчислюють неочищені компоненти, як . Ці "стежки" зазначив @amoeba у своєму Postscriptum."C"=XVr

Ці, нарешті, окреслені дії (здебільшого безглузді) нагадують нам, що власне вектори, не лише навантаження, взагалі можуть обертатися. Наприклад, процедура varimax може бути застосована до них для спрощення їх структури. Але оскільки власні вектори не так корисні для інтерпретації значення компонентів, як завантаження, обертання власних векторів робиться рідко.

введіть тут опис зображення

Отже, PCA з подальшим варімакс (або іншим) обертанням є

  • ще PCA
  • який на шляху відмовився від основних компонентів лише для компонентів
  • яких потенційно більше (ніж ПК) можна інтерпретувати як "приховані риси"
  • але не були модельовані сатистично як такі (PCA не є справедливим факторним аналізом)

У цій відповіді я не посилався на факторний аналіз. Мені здається, що використання @ amoeba слова "латентний простір" є дещо ризикованим у контексті заданого питання. Однак я погоджуюся з тим, що аналітичне обертання PCA + можна назвати " переглядом у стилі FA на PCA".


Як обчислити власні значення обертаються компонентів?

1
@Haga, Обернені компоненти вже не є основними компонентами, тому вони не можуть мати власних значень. Їх відхилення, однак, дорівнюють сумам стовпців навантажень у квадраті (будь ласка, дивіться внизу моєї діаграми - стрілка до нестандартних балів).
ttnphns

8

У psych::principal()ви можете робити різні типи поворотів / перетворень в ваш витягнутий основний компонент (ів) або «» ПКА «» , використовуючи rotate=аргумент, як: "none", "varimax"( по замовчуванню), "quatimax", "promax", "oblimin", "simplimax", і "cluster". Ви повинні емпірично вирішити, який з них повинен мати сенс у вашому випадку, якщо це необхідно, залежно від вашої власної оцінки та знання предмета, що досліджується. Ключове запитання, яке може дати вам підказку: яке з них можна більш інтерпретувати (якщо знову потрібно)?

У довідці ви можете знайти також таке:

Важливо визнати, що обертові головні компоненти не є головними компонентами (осі, пов'язані з розкладанням власного значення), а є лише компонентами. Для цього слід зазначити, що невраховані головні компоненти позначаються як PCi, тоді як обернені ПК тепер позначені як RCi (для обертових компонентів), а косо перетворені компоненти як TCi (для перетворених компонентів). (Дякую Ульріке Громінг за цю пропозицію.)


7

Я розумію, що відмінність PCA від Factor аналізу полягає в тому, чи існує термін помилки. Таким чином, PCA може і буде вірно представляти дані, тоді як факторний аналіз менш вірний даних, на яких він навчається, але намагається представити основні тенденції або спільність даних. При стандартному підході PCA не обертається, але це можливо зробити математично, тому люди час від часу роблять це. Я погоджуюся з коментаторами в тому, що "сенс" цих методів дещо розроблений і схожий на те, що, ймовірно, розумно бути впевненим, що функція, яку ви використовуєте, виконує те, що ви хочете - наприклад, як ви зазначаєте, R має деякі функції, які виконують PCA відрізняється від тих, з якими знайомі користувачі SPSS.


2

Завдяки хаосу у визначеннях обох вони фактично є синонімами. Не вірте словам і загляньте глибоко в доки, щоб знайти рівняння.


3
Я все ще намагаюся зрозуміти рівняння (біолог ахой), саме тому я звернувся до спільноти тут, сподіваючись, що це допоможе мені пояснити різницю в термінах мирян.
Роман Луштрик

Я думаю, що ідеологія полягає в тому, що ФА передбачає, що процес керується деякими «прихованими факторами», тоді як дані, які ми маємо, складаються з деяких їх комбінацій. Через це проблема ФА полягає в тому, щоб якось реконструювати приховані фактори. І ось PCA - метод, який ітеративно створює нові змінні (ПК) шляхом змішування старих, таких, щоб жадібно поглинати дисперсію даних. Можна сказати, що ПК рівні з факторами FA, і тут вони будуть нерозрізнені. Але можна також внести деякі зміни до PCA, щоб він став базовим для якогось іншого "типу FA", і тому проблема починається.

Таким чином, ви повинні думати, що ви хочете зробити (а не те, яке мовлення ви хочете використовувати). Я знаю, що це важко, особливо, коли навколо них є біологи (певна мотивація використання мовлення добре працює в біології, тому вони просто припускають, що це є спільним для інших дисциплін); все-таки це має робити наука. Тоді використовуйте Google (або цей сайт) для оцінки хорошого алгоритму для нього. Нарешті, використовуйте доки, щоб знайти функцію / кнопку, яка її виконує, і введіть / натисніть на неї.

1

Хоча на це питання вже прийнята відповідь, я хотів би додати щось до питання.

"PCA" - якщо я правильно пам'ятаю - означає "аналіз основних компонентів"; доки ви аналізуєте основні компоненти, може, без обертання чи з обертанням, ми все ще знаходимось в аналізі "основних компонентів" (які були знайдені відповідною початковою матрицею-розкладанням).

Я б сформулював, що після "varimax" -ротації на перших двох основних компонентах, ми маємо "varimax-рішення двох перших ПК" (або щось інше), але все ще перебуваємо в рамках аналізу основних компонентів, або коротше, знаходяться в рамках "pca".

Щоб зробити мою думку ще яснішою: я не відчуваю, що просте питання обертання вводить проблему розмежування між EFA та CFA (останній згаданий / введений в проблему, наприклад, у відповіді Бретта)


Чому ти раптом згадав про CFA в останньому реченні?
амеба каже, що повернеться до Моніки

@amoeba: Мені на цей термін вказували 23-бальну відповідь _Brett і вважав, що варто щось про це зауважити. Але, можливо, краще було б замість цього сказати "FA". Я подумаю про це ... (Думаючи над цим, я смутно пам'ятаю, що "CFA" розглядався як "підтверджуючий аналіз факторів", а не "загальний ..." у своїх попередніх дослідженнях цього методу, можливо, у 80-х роках або 90-х років)
Готфрід

Просто в перших трьох абзацах вашої відповіді йдеться про PCA проти FA, а потім останній абзац, схожий на узагальнення попередніх, раптом стосується EFA проти CFA.
амеба каже, що поверніть Моніку

@amoeba: чи остання моя редакція робить ясніший намір / пропозицію?
Готфрід Гельмс

1

Я вважаю, що це є найбільш корисним: Abdi & Williams, 2010, Аналіз основних компонентів .

РОТАЦІЯ

Після визначення кількості компонентів і для полегшення інтерпретації аналіз часто включає обертання компонентів, які були збережені [див., Наприклад, Реф. 40 та 67, для більш детальної інформації]. Використовуються два основні типи обертання: ортогональні, коли нові осі також ортогональні одна до одної, і косі, коли нові осі не повинні бути ортогональними. Оскільки обертання завжди виконуються в підпросторі, нові осі завжди будуть пояснювати меншу інерцію, ніж вихідні компоненти (які обчислюються як оптимальні). Однак частина інерції, що пояснюється загальним підпростором після обертання, така ж, як і до обертання (змінився лише розділ інерції). Важливо також зазначити, що оскільки обертання завжди відбувається в підпросторі (тобто простір утримуваних компонентів), вибір цього підпростору сильно впливає на результат обертання. Тому настійно рекомендується спробувати кілька розмірів для підпростори утримуваних компонентів, щоб оцінити надійність інтерпретації обертання. Виконуючи обертання, термін навантаження майже завжди посилається на елементи матриці Q.

(див. документ для визначення Q).

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.