Я використовую пакет "lars" в R із наступним кодом:
> library(lars)
> set.seed(3)
> n <- 1000
> x1 <- rnorm(n)
> x2 <- x1+rnorm(n)*0.5
> x3 <- rnorm(n)
> x4 <- rnorm(n)
> x5 <- rexp(n)
> y <- 5*x1 + 4*x2 + 2*x3 + 7*x4 + rnorm(n)
> x <- cbind(x1,x2,x3,x4,x5)
> cor(cbind(y,x))
y x1 x2 x3 x4 x5
y 1.00000000 0.74678534 0.743536093 0.210757777 0.59218321 0.03943133
x1 0.74678534 1.00000000 0.892113559 0.015302566 -0.03040464 0.04952222
x2 0.74353609 0.89211356 1.000000000 -0.003146131 -0.02172854 0.05703270
x3 0.21075778 0.01530257 -0.003146131 1.000000000 0.05437726 0.01449142
x4 0.59218321 -0.03040464 -0.021728535 0.054377256 1.00000000 -0.02166716
x5 0.03943133 0.04952222 0.057032700 0.014491422 -0.02166716 1.00000000
> m <- lars(x,y,"step",trace=T)
Forward Stepwise sequence
Computing X'X .....
LARS Step 1 : Variable 1 added
LARS Step 2 : Variable 4 added
LARS Step 3 : Variable 3 added
LARS Step 4 : Variable 2 added
LARS Step 5 : Variable 5 added
Computing residuals, RSS etc .....
У мене є набір даних із 5 безперервними змінними, і я намагаюся пристосувати модель до однієї (залежної) змінної y. Два мої прогнози сильно співвідносяться один з одним (x1, x2).
Як ви бачите у наведеному вище прикладі, функція lars з опцією 'step step' спочатку вибирає змінну, яка найбільш корелює з y. Наступна змінна, яка вводиться в модель, - це найбільш корельована із залишками. Дійсно, це x4:
> round((cor(cbind(resid(lm(y~x1)),x))[1,3:6]),4)
x2 x3 x4 x5
0.1163 0.2997 0.9246 0.0037
Тепер, якщо я виконую варіант "ласо":
> m <- lars(x,y,"lasso",trace=T)
LASSO sequence
Computing X'X ....
LARS Step 1 : Variable 1 added
LARS Step 2 : Variable 2 added
LARS Step 3 : Variable 4 added
LARS Step 4 : Variable 3 added
LARS Step 5 : Variable 5 added
Він додає обидві корельованих змінних до моделі на перших двох кроках. Це протилежне тому, що я читав у кількох працях. Більшість із них кажуть, що якщо є група змінних, серед яких кореляції дуже високі, то "ласо" має тенденцію вибирати лише одну змінну з групи навмання.
Чи може хтось навести приклад такої поведінки? Або поясніть, чому мої змінні x1, x2 додаються до моделі одна за одною (разом)?
R
виклик, який здійснює ОП, і відповідний вихід, який він надає, ви побачите, що він справді використовує ласо. Як я впевнений, ви знаєте, невеликий підбір алгоритму lars дає шлях регуляризації ласо.