Який зв’язок між частковими найменшими квадратами, зменшеною регресією регресу та регресією основних компонентів?


16

Чи є регресія зі зниженим рангом та регресія головних компонентів лише особливими випадками часткових найменших квадратів?

У цьому підручнику (Сторінка 6, "Порівняння цілей") зазначено, що коли ми робимо часткові найменші квадрати, не проектуючи X або Y (тобто "не часткові"), це стає відповідно регресією регресії чи регресією головного компонента.

Аналогічне твердження зроблено на цій сторінці документації SAS , розділах "Зменшення регресу рейтингу" та "Взаємозв'язки між методами".

Більш фундаментальним наступним питанням є те, чи мають вони подібні основні імовірнісні моделі.


Це справді важлива проблема.
Стів

@Steve. Спасибі. Дивіться мої коментарі вище для більш детального вступу.
Міньків

Відповіді:


15

Це три різні методи, і жоден з них не може розглядатися як особливий випадок іншого.

Формально, якщо і Y - центрировані набори даних передбачувача ( n × p ) і відповіді ( n × q ), і якщо ми шукаємо першу пару осей, wR p для X і vR q для Y , то ці методи максимізуйте наступні кількості:XYn×pn×qwRpXvRqY

PCA:Var(Xw)RRR:Var(Xw)Corr2(Xw,Yv)Var(Yv)PLS:Var(Xw)Corr2(Xw,Yv)Var(Yv)=Cov2(Xw,Yv)CCA:Var(Xw)Corr2(Xw,Yv)

(Я додав до цього списку канонічний кореляційний аналіз (CCA).)


Я підозрюю, що плутанина може бути, тому що в SAS всі три методи, здається, реалізуються через одну і ту ж функцію PROC PLSз різними параметрами. Тож може здатися, що всі три методи - це особливі випадки PLS, оскільки саме так називається функція SAS. Це, однак, лише нещасне називання. Насправді, PLS, RRR та PCR - це три різні методи, які, як правило, реалізуються в SAS в одній функції, яку чомусь викликають PLS.

Обидва навчальні посібники, з якими ви пов’язані, насправді дуже зрозумілі. Сторінка 6 підручника з презентації визначає цілі всіх трьох методів і не говорить, що PLS "стає" RRR або PCR, всупереч тому, що ви заявили у своєму запитанні. Аналогічно, документація SAS пояснює, що три методи різні, даючи формули та інтуїцію:

[P] регресія компонентів rincipal вибирає фактори, що пояснюють якомога більшу кількість варіантів прогнозів, регресія з пониженим рангом вибирає фактори, що пояснюють якомога більше варіантів реакції, а часткові найменші квадрати врівноважують дві цілі, шукаючи фактори, що пояснюють як реакцію, так і варіацію прогноктора .

x1x2yXyX

ПЛР, PLS, RRR

До втраченої функції RRR можна додати гребневий штраф, отримуючи регресію гребеня зі зниженим рангом або RRRR. Це потягне вісь регресії у напрямку PC1, дещо схожа на те, що робить PLS. Однак функцію витрат для RRRR не можна записати у формі PLS, тому вони залишаються іншими.

y


4
Таблиця в кінці дуже корисна. Виходячи з цієї таблиці, можна вважати PCA, RRR та CCA "особливими випадками" PLS, якщо ви також вважаєте, що велосипеди та одноколісні велосипеди є особливими випадками триколісного велосипеда. Я не схильний так думати.
EdM

2
@EdM, я думаю, що можна сказати, що всі ці методи - це особливі випадки якогось об’єднуючого методу, який насправді не має назви (але його можна придумати!). Але назва "PLS" вже має усталене значення, і це значення не включає жодну з цих інших методик.
Амеба каже, що відбудеться Моніка

1
І дякую! Я вирішив зараз перенести таблицю на початок відповіді :)
амеба каже Відновити Моніку

2
XYVar(Xw)αCorr(Xw,Yv)βVar(Yv)γ
Амеба каже: Відновити Моніку

1
@Moskowitz: Загалом, коли люди говорять про метод A, який є "особливим випадком" методу B, вони означають, що B більш загальний і A еквівалентний B з деякими конкретними параметрами. Вони не означають, що A дає ті самі результати, що і B при деяких спеціальних умовах набору даних. Звідси моя відповідь на ваше запитання.
Амеба каже: Відновити Моніку
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.