Чи PCA нестабільний при мультиколінеарності?


25

Я знаю, що в регресійній ситуації, якщо у вас є набір сильно корельованих змінних, це зазвичай "погано" через нестабільність оцінених коефіцієнтів (дисперсія йде в бік нескінченності, оскільки детермінанта йде до нуля).

Моє запитання - чи зберігається ця «поганість» у ситуації з УПС. Чи стають коефіцієнти / навантаження / ваги / власні вектори для будь-якого конкретного ПК нестабільними / довільними / не унікальними, коли матриця коваріації стає сингулярною? Мене особливо цікавить випадок, коли зберігається лише перший основний компонент, а всі інші відхиляються як "шум" або "щось інше" або "неважливо".

Я не думаю, що це так, тому що вам просто залишиться кілька основних компонентів, які мають нульову або близьку до нульової дисперсії.

Легко помітити, що це не так у простому крайньому випадку з двома змінними - припустимо, вони ідеально співвідносяться. Тоді перший ПК буде точним лінійним співвідношенням, а другий ПК буде перпендикулярним до першого ПК, при цьому всі значення ПК рівні нулю для всіх спостережень (тобто нульова дисперсія). Цікаво, чи це більш загальне.


8
Ваші міркування хороші. Насправді можна очікувати нестабільності, коли дві або більше власних значень майже збігаються, бо тоді, хоча власні значення визначаються, власних векторів немає, а отже, і навантажень. З числових причин також існує нестабільність власних значень (та власних векторів), які мають дуже малі розміри порівняно з максимальним власним значенням.
whuber

@whuber коментар відповідає на ваше запитання, але я хотів би зазначити, що у випадку 2 ідеально співвідносних змінних, PCA не повинен мати жодних проблем. Коваріаційна матриця була б 1-го рангу, тому буде лише 1 ненульове власне значення, отже, лише 1 ПК. Оригінальними змінними стануть кратні цього ПК. Єдиним питанням може бути числова стійкість.
mpiktas

Насправді, я думаю, вам було б гірше, якби ви мали середньо корельовані змінні, ніж коли у вас дійсно сильно корельовані змінні. Числово-цифровий також, якщо ви використовуєте такий алгоритм, як NIPALS, який видаляє ПК у порядку
JMS

Одне - «висококорелійовані» та «колінеарні» не є однаковими. Якщо задіяно більше двох змінних, узгодженість не передбачає кореляції.
Пітер Флом - Відновити Моніку

Відповіді:


11

Відповідь може бути дана ще простішими словами: множинна регресія має на крок більше, ніж pca, якщо її бачити з точки зору лінійної алгебри, а з другого кроку виникає нестабільність:

RLLt

L
L


Це приблизно те, що я шукав. Насправді, прочитавши вашу відповідь, змушує мене думати ще одне пояснення: обертання чисельно стабільні, незалежно від визначника матриці коваріації / кореляції. А оскільки PCA можна вважати найкращим обертанням осі координат, він також буде чисельно стабільним.
ймовірністьлогічний

Так, наприклад, у "основах фактораналізу" Стен Мулайка чітко згадується стійкість обертання ПК (метод Якобі), якщо правильно згадати джерело. В моїй власній реалізації факторного аналізу я роблю все після холеського шляхом обертання: PCA, Varimax, навіть "основний осі факторинг" (PAF в SPSS) можна відновити на основі обертів. Якщо мультирегресія заснована на коефіцієнті холеського L, а частина L, яка містить незалежні змінні, перебуває в положенні ПК, то багатоколінеарність можна ще краще контролювати.
Готфрід Гельмс

3

PCA часто є засобом для досягнення мети; що веде до входів до множинної регресії або для використання в кластерному аналізі. Я думаю, у вашому випадку ви говорите про використання результатів PCA для проведення регресії.

У цьому випадку ваша мета виконання PCA полягає в тому, щоб позбутися мультиколінеарності та отримати ортогональні входи до множинної регресії, не дивно, що це називається регресією основних компонентів. Тут, якби всі ваші вихідні входи були ортогональними, тоді виконання PCA дасть вам ще один набір ортогональних входів. Тому; якщо ви робите PCA, можна припустити, що ваші входи мають мультиколінеарність.

λi^ithλi^p

Список літератури

Johnson & Wichern (2001). Прикладний багатоваріантний статистичний аналіз (6-е видання). Prentice Hall.


6
Я не впевнений, що ОП після ПЛР. PCA також є хорошим способом узагальнення багатоваріантних наборів даних (не обов'язково для того, щоб зменшити дані для подальшого використання в рамках моделювання), тобто наблизити матрицю VC до нижчого порядку, зберігаючи більшу частину інформації. Здається, питання: чи я маю рацію, інтерпретуючи перші кілька власних значень та ПК (як лінійні комбінації вихідних змінних), навіть якщо були якісь колінеарні ефекти? Здається, ваша відповідь безпосередньо не стосується питання ОП.
chl

2
хороша відповідь про PCA взагалі, а як бути, коли PCA є кінцевим продуктом ? Тобто мета - вивести один ПК. @Chl прямо на гроші з його інтерпретацією питання
ймовірністьлогічний

@chl Ваша відповідь на питання: "Я прав, коли інтерпретую перші кілька власних значень та ПК, навіть якщо були якісь наслідки колінеарності?" Я запитую, тому що я намагаюся з’ясувати, коли корисно зберігати сильно корельовані змінні при виконанні зменшення розмірності. Іноді, коли нам відомо з теорії, що дві змінні приводяться в рух одними і тими ж прихованими змінними, тоді вам слід видалити одну зі змінних, щоб не рахувати ефект латентної змінної двічі. Я намагаюся продумати, коли це нормально, щоб зберегти корельовані змінні.
Аматія
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.