Чи можна використовувати декілька регресій для прогнозування одного основного компонента (ПК) від кількох інших ПК?


15

Нещодавно користувач у списку розсилки R-help запитав про надійність використання балів PCA в регресії. Користувач намагається використовувати деякі результати на ПК, щоб пояснити зміни в іншому ПК (див. Повну дискусію тут ). Відповідь була: ні, це не звучить, оскільки ПК є ортогональними один для одного.

Чи може хтось пояснити трохи детальніше, чому це так?


1
Чому ви поставили rтег і що ви розумієте під "чому це так"? ПК не співвідносяться, тобто вони є ортогональними, добавками, ви не можете передбачити один ПК з іншим. Шукаєте формулу?
aL3xa

Мені було цікаво про принципи логіки (в моєму прагненні зрозуміти PCA). Я використовував тег R, оскільки R люди могли прочитати це і, можливо, показати приклади R. :)
Роман Луштрик

О, чому ти так не сказав? Ви бачили statmethods.net/advstats/factor.html
aL3xa

Відповіді:


11

Основний компонент - це зважена лінійна комбінація всіх ваших факторів (X).

приклад: PC1 = 0,1X1 + 0,3X2

Буде одна складова для кожного фактора (хоча загалом обрано невелику кількість).

Компоненти створені таким чином, що вони мають нульову кореляцію (є ортогональними) за конструкцією.

Отже, компонент PC1 не повинен пояснювати будь-яких змін компонента PC2.

Ви можете зробити регресію для своєї змінної Y та PCA-представлення ваших X, оскільки вони не матимуть мультиколінеарності. Однак це може бути важко інтерпретувати.

Якщо у вас більше X, ніж спостережень, що порушує OLS, ви можете регресувати на своїх компонентах і просто вибрати меншу кількість найвищих компонентів варіації.

Аналіз основних компонентів Jollife - це дуже поглиблена та високо цитована книга з цього приводу

Це також добре: http://www.statsoft.com/textbook/principal-components-factor-analysis/


11

Основні компоненти є ортогональними за визначенням, тому будь-яка пара ПК матиме нульову кореляцію.

Однак PCA може використовуватися в регресії, якщо існує велика кількість пояснювальних змінних. Вони можуть бути зменшені до невеликої кількості основних компонентів і використовуватися як предиктори для регресії.


Чи не було б тоді ФА?
Роман Луштрик

3
Ні. FA не є регресом. Я маю на увазі змінну відповіді, регресуючу проти основних компонентів, обчислену з великої кількості пояснювальних змінних. Самі основні компоненти тісно пов'язані з факторами ФА.
Роб Хайндман

Вибачте, я мав би бути більш точним у своєму коментарі. Ваше повідомлення про те, що пояснювальні змінні можуть бути зведені до невеликої кількості ПК, дзвонило мені "факторний аналіз".
Роман Луштрик

У наборі з n змінних можна витягнути n ПК, але ви можете вирішити, скільки ви хочете зберегти, наприклад, критерій Гутмана-Кейзера говорить: зберігайте всі ПК, які мають власне значення (дисперсія) більше 1. Так що. .
aL3xa

7

Обережно ... тільки те, що ПК будуються ортогонально один до одного, не означає, що немає шаблону або що один ПК не може з'явитись, щоб "пояснити" щось про інші ПК.

Розгляньте 3D-дані (X, Y, Z), що описують велику кількість точок, розподілених рівномірно на поверхні американського футболу (це еліпсоїд - не сфера - для тих, хто ніколи не дивився американський футбол). Уявіть, що футбол знаходиться в довільній конфігурації, так що ні X, ні Y, і Z не знаходяться вздовж довгої осі футболу.

Основні компоненти розмістять PC1 вздовж довгої осі футболу, осі, яка описує найбільшу дисперсію даних.

Для будь-якої точки розміру PC1 вздовж довгої осі футболу, плоский зріз, представлений PC2 та PC3, повинен описувати коло, а радіус цього кругового зрізу залежить від розміру PC1. Це правда, що регресії PC2 або PC3 на PC1 повинні давати нульовий коефіцієнт в усьому світі, але не над меншими ділянками футболу .... і зрозуміло, що двовимірний графік PC1 і PC2 показав би "цікаву" граничну границю тобто двозначне, нелінійне та симетричне.


3

Якщо ваші дані є розмірними і галасливими, і ви не маєте великої кількості вибірки, ви стикаєтеся з небезпекою перевитрати. У таких випадках має сенс використовувати PCA (який може фіксувати домінуючу частину дисперсії даних; ортогональність не є проблемою) або факторний аналіз (який може знайти справжні пояснювальні змінні, що лежать в основі даних), щоб зменшити розмірність даних, а потім навчити регресійну модель з ними.

Для факторного підходу, що базується на факторному аналізі, дивіться цю статтю Баєсової регресійної моделі фактора та непараметричну баєсовську версію цієї моделі , яка не передбачає, що ви апріорі знаєте "справжню" кількість відповідних факторів (або основних компонентів у випадку PCA).

Додам, що у багатьох випадках зменшення розмірності під контролем (наприклад, аналіз дискримінантності Фішера ) може вдосконалити порівняно з простими підходами, заснованими на PCA або FA, оскільки ви можете використовувати інформацію мітки, одночасно зменшуючи розмірність.


0

ви могли б витягнути його , якщо прогнозована оцінка PC була витягнута з різних змінних, або випадків, ніж оцінки провісника PC. якщо такий випадок передбачуваний і прогноктор не буде ортогональним або, принаймні, цього не потрібно, кореляція, звичайно, не гарантується.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.