Скажімо, у мене є набір даних із оцінками на купі питань анкети, які теоретично складаються з меншої кількості шкал, як, наприклад, у психологічних дослідженнях.
Я знаю, що тут поширений підхід - перевірити надійність ваг за допомогою альфа Кронбаха чи чогось подібного, а потім об'єднати елементи в масштабах, щоб сформувати шкали шкали, і продовжити аналіз звідти.
Але є також факторний аналіз, який може взяти всі результати ваших позицій як вхідні дані та повідомити, які з них утворюють послідовні фактори. Ви можете зрозуміти, наскільки сильні ці фактори, переглянувши навантаження та комунальні послуги тощо. Мені це звучить як те саме, тільки набагато більш поглиблене.
Навіть якщо всі показники надійності вашої шкали хороші, EFA може виправити, які елементи краще вписуються в які масштаби, правда? Ви, ймовірно, отримаєте перехресні навантаження, і, можливо, буде більше сенсу використовувати похідні коефіцієнти, ніж прості суми шкали.
Якщо я хочу використати ці шкали для подальшого аналізу (наприклад, регресія чи ANOVA), я повинен просто агрегувати шкали, доки їх надійність зберігається? Або це щось на кшталт CFA (тестування, щоб перевірити, чи ваги є хорошими факторами, які, здається, вимірюють те саме, що "надійність").
Мене вчили про обидва підходи незалежно, і тому я дійсно не знаю, як вони співвідносяться, чи можна їх використовувати разом або який має більше сенсу для якого контексту. Чи є в цьому випадку дерево рішень для належної дослідницької практики? Щось на зразок:
Запустіть CFA відповідно до прогнозованих масштабів
- Якщо CFA виявляється добре, підраховуйте коефіцієнти та використовуйте їх для аналізу.
- Якщо CFA виявляється погано придатним, замість цього запустіть EFA та застосуйте дослідницький підхід (чи щось таке).
Чи є факторний аналіз та тестування надійності окремими підходами до одного і того ж, чи я десь нерозумію?