Завантаження в факторному аналізі або в PCA ( див. 1 , див. 2 , див. 3 ) - це коефіцієнт регресії, вага в лінійній комбінації, що прогнозує змінні (елементи), стандартизованими (одиницею дисперсії) коефіцієнтами / компонентами.
Причини завантаження перевищують :1
Причина 1: проаналізована коваріаційна матриця.
Якщо для аналізу були стандартизовані змінні, тобто аналіз базувався на кореляційній матриці, то після вилучення або після ортогонального обертання (наприклад, варимакс) - коли фактори / компоненти залишаються некорельованими - навантаження також є коефіцієнтами кореляції. Це властивість рівняння лінійної регресії: з ортогональними стандартизованими прогнозами, параметри яких дорівнюють співвідношенням Пірсона. Отже, у такому випадку завантаження не може бути більше [-1, 1].
Але якщо аналізовані були лише центрировані змінні, тобто аналіз базувався на коваріаційній матриці, то навантаження не повинні обмежуватися [-1, 1], оскільки коефіцієнти регресії такі моделі не повинні дорівнювати коефіцієнтам кореляції. Насправді вони є коваріаціями. Зауважте, що це були сирі вантажі. Існують "переосмислені" або "стандартизовані" навантаження (описані в посиланнях, які я наводив у 1-му пункті), які переосмислені, щоб не залишати смугу [-1, 1].
Причина 2: косо обертання. Після косого обертання, такого як promax або oblimin, ми маємо два типи навантажень: матриця шаблону (коефіцієнти регресії або навантаження як такої) та структурна матриця (коефіцієнти кореляції). Вони не рівні між собою через наведену вище причину: коефіцієнти регресії корельованих прогнозів відрізняються від кореляцій Пірсона. Таким чином, завантаження шаблону може легко лежати за межами [-1, 1]. Зауважимо, що це справедливо навіть тоді, коли матриця кореляції була аналізованою матрицею. Отже, саме так, коли фактори / компоненти косі.
Причина 3 (рідко): Справа Хейвуда. Випадок Хейвуда ( пт 6 ) - це складність алгоритмів аналізу факторів, коли навантаження ітерацій перевищує теоретично дозволену величину - це відбувається, коли спільність виходить за межі дисперсії. Випадок Хейвуда є рідкісною ситуацією, і він зустрічається в деяких наборах даних, коли є занадто мало змінних для підтримки потрібної кількості факторів. Програми інформують, що існує помилка випадку Heywood і або зупиніть, або спробуйте вирішити цю проблему.