Зараз я переживаю слайд, який я маю для "факторного аналізу" (PCA, наскільки я можу сказати).
У ній виведена "фундаментальна теорема факторного аналізу", яка стверджує, що матрицю кореляції даних, що надходять в аналіз ( ), можна відновити за допомогою матриці факторних навантажень ( A ):
Це, однак, мене бентежить. У PCA матриця "факторних навантажень" задається матрицею власних векторів матриці коваріації / кореляції даних (оскільки ми припускаємо, що дані були стандартизовані, вони однакові), при цьому кожен власний вектор масштабується мати довжина одна. Ця матриця є ортогональною, при цьому ⊤ = I , який в загальному випадку НЕ дорівнює R .
A
(які є навантаженнями) з ясності. Матриця власного вектора (у правій частині) зазвичай позначена міткоюV
(тому щоR=USV'
по svd), а неA
. Інша еквівалентна назва (походить від термінології біплот) для власних векторів - «стандартні координати», а для навантажень - «головні координати».