PCA - це перш за все техніка скорочення даних, де мета полягає в тому, щоб отримати проекцію даних на простір з меншими розмірами. Дві еквівалентні цілі - або ітеративно максимізувати дисперсію, або мінімізувати помилку відновлення. Це насправді детально розроблено у відповідях на це попереднє запитання .
Навпаки, факторний аналіз - це насамперед генеративна модель -вимірного вектора даних X, яка говорить про те, що
X = A S + ϵ,
де S - q розмірний вектор прихованих факторів, A є p × k з k < p і ϵ є a вектор непов'язаних помилок. Матриця є матрицею факторних навантажень . Це дає особливу параметризацію матриці коваріації як
Σ = A A T + DpХ
Х= A S+ ϵ
SqАp × kк < рϵАΣ = A AТ+ D
Проблема цієї моделі полягає в тому, що вона завищена. Ж модель виходить , якщо замінюється
A R для будь-якого
K × K ортогональної матриці
R , що означає , що самі коефіцієнти не є чимось унікальним. Існують різні пропозиції щодо вирішення цієї проблеми, але
не існує єдиного рішення, яке надасть вам чинників із видом інтерпретації, яку ви вимагаєте. Один з популярних виборів - обертання
varimax . Однак використовуваний критерій визначає лише обертання. Простір стовпців, що охоплюється
A , не змінюється, і оскільки це частина параметризації, він визначається будь-яким методом, що використовується для оцінки
ΣАA Rk × kRАΣ - за максимальною вірогідністю в гауссовій моделі, скажімо.
Отже, щоб відповісти на запитання, вибрані фактори не задаються автоматично за допомогою моделі аналізу факторів, тому не існує єдиної інтерпретації перших факторів. Ви повинні вказати метод, який використовується для оцінки (простір стовпців) A та метод, який використовується для вибору обертання. Якщо D = σ 2 I (всі помилки мають однакову дисперсію), рішення MLE для стовпчика простору A - це простір, що охоплюється провідними q основними компонентами векторів, які можуть бути знайдені сингулярним розкладанням значення. Звичайно, можна вибрати не обертати та повідомляти про ці основні компоненти векторів як про фактори. кАD = σ2ЯАq
ккк