Запитання з тегом «partial-least-squares»

Клас лінійних методів для моделювання взаємозв'язку між двома групами змінних, X та Y. Включає регресію PLS.

2
Теорія за частковою регресією найменших квадратів
Чи може хтось порекомендувати гарне виклад теорії за частковою регресією найменших квадратів (доступна в Інтернеті) для тих, хто розуміє SVD та PCA? Я переглянув багато джерел в Інтернеті і не знайшов нічого, що мав би правильне поєднання суворості та доступності. Я розглянув "Елементи статистичного навчання" , що було запропоновано в …

1
PCA, LDA, CCA та PLS
Як пов’язані PCA, LDA, CCA та PLS? Всі вони здаються "спектральними" та лінійними алгебраїчними і дуже добре зрозумілими (скажімо, 50+ років теорії, побудованої навколо них). Вони використовуються для дуже різних речей (PCA для зменшення розмірності, LDA для класифікації, PLS для регресії), але вони все ще відчувають себе дуже тісно пов'язаними.

2
Межа оцінювача регресії хребта "одинична дисперсія" при
Розглянемо регресію хребта з додатковим обмеженням, що вимагає, щоб має одиницю суми квадратів (еквівалентно одиниці дисперсії); при необхідності можна припустити, що має одиничну суму квадратів:y^y^\hat{\mathbf y}yy\mathbf y β^∗λ=argmin{∥y−Xβ∥2+λ∥β∥2}s.t.∥Xβ∥2=1.β^λ∗=arg⁡min{‖y−Xβ‖2+λ‖β‖2}s.t.‖Xβ‖2=1.\hat{\boldsymbol\beta}_\lambda^* = \arg\min\Big\{\|\mathbf y - \mathbf X \boldsymbol \beta\|^2+\lambda\|\boldsymbol\beta\|^2\Big\} \:\:\text{s.t.}\:\: \|\mathbf X \boldsymbol\beta\|^2=1. Яка межа β^∗λβ^λ∗\hat{\boldsymbol\beta}_\lambda^* коли λ→∞λ→∞\lambda\to\infty ? Ось кілька тверджень, які …


1
Який зв’язок між частковими найменшими квадратами, зменшеною регресією регресу та регресією основних компонентів?
Чи є регресія зі зниженим рангом та регресія головних компонентів лише особливими випадками часткових найменших квадратів? У цьому підручнику (Сторінка 6, "Порівняння цілей") зазначено, що коли ми робимо часткові найменші квадрати, не проектуючи X або Y (тобто "не часткові"), це стає відповідно регресією регресії чи регресією головного компонента. Аналогічне твердження …

1
Регресія в налаштуваннях
Я намагаюся зрозуміти, чи варто йти на регресію хребта , LASSO , регресію основного компонента (PCR) або часткові найменші квадрати (PLS) у ситуації, коли існує велика кількість змінних / ознак ( ) та менша кількість зразків ( n < p ), і моя мета - передбачення.pppn<pn<pn np>10np>10np>10n Змінні ( і …

3
Модельні припущення щодо регресії найменших часткових квадратів (PLS)
Я намагаюся знайти інформацію щодо припущень регресії PLS (одиночний ). Мене особливо цікавить порівняння припущень щодо ПЛС щодо регресії OLS. yyy Я читав / проглядав велику кількість літератури на тему PLS; документи Уолда (Сванте та Германа), Абді та багатьох інших, але не знайшли задовільного джерела. Wold та ін. (2001) PLS-регресія: …

1
Часткова найменша регресія квадратів у R: чому ПЛС на стандартизованих даних не еквівалентна максимальній кореляції?
Я дуже новий в часткових найменших квадратиках (PLS) і намагаюся зрозуміти вихід R функції plsr()в plsпакеті. Давайте змоделюємо дані та запустимо PLS: library(pls) n <- 50 x1 <- rnorm(n); xx1 <- scale(x1) x2 <- rnorm(n); xx2 <- scale(x2) y <- x1 + x2 + rnorm(n,0,0.1); yy <- scale(y) p <- …

1
Різниця між регресією PLS та моделюванням шляху PLS. Критика ПЛС
Це питання було задано тут, але ніхто не дав гарної відповіді. Тому я думаю, що це гарна ідея підняти її ще раз, а також я хотів би додати ще кілька коментарів / питань. Перше питання - в чому різниця між "моделюванням шляху ПЛС" та "регресією ПЛС"? Щоб зробити його більш …

1
Яка різниця між "навантаженнями" та "кореляційними навантаженнями" в PCA та PLS?
Одне загальне, що потрібно робити при аналізі головних компонентів (PCA) - це побудувати два навантаження один на одного для дослідження взаємозв'язків між змінними. У документі, що супроводжує пакет PLS R для регресії головних компонентів та регресії PLS, є інший графік, який називається графіком кореляційних навантажень (див. Рисунок 7 та сторінку …

1
Чому всі компоненти PLS разом пояснюють лише частину дисперсії вихідних даних?
У мене є набір даних, що складається з 10 змінних. Я провів часткові найменші квадрати (PLS), щоб передбачити єдину змінну відповіді на цих 10 змінних, вилучив 10 компонентів PLS, а потім обчислив дисперсію кожного компонента. За вихідними даними я взяв суму дисперсій усіх змінних, яка дорівнює 702. Потім я розділив …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.