Я намагаюся підходити до багатоваріантної лінійної регресійної моделі з приблизно 60 змінними предиктора та 30 спостереженнями, тому я використовую пакет glmnet для регульованої регресії, оскільки p> n.
Я переглядав документацію та інші питання, але все ще не можу інтерпретувати результати, ось зразок коду (з 20 прогнозовами та 10 спостереженнями для спрощення):
Я створюю матрицю x з числовими рядками = num спостереженнями і num cols = num preictors and vector y, який представляє змінну відповіді
> x=matrix(rnorm(10*20),10,20)
> y=rnorm(10)
Я підходить до моделі glmnet, яка залишає альфа за замовчуванням (= 1 для ласового штрафу)
> fit1=glmnet(x,y)
> print(fit1)
Я розумію, я отримую різні прогнози зі зменшенням значень лямбда (тобто штрафу)
Call: glmnet(x = x, y = y)
Df %Dev Lambda
[1,] 0 0.00000 0.890700
[2,] 1 0.06159 0.850200
[3,] 1 0.11770 0.811500
[4,] 1 0.16880 0.774600
.
.
.
[96,] 10 0.99740 0.010730
[97,] 10 0.99760 0.010240
[98,] 10 0.99780 0.009775
[99,] 10 0.99800 0.009331
[100,] 10 0.99820 0.008907
Тепер я прогнозую свої бета-значення, вибираючи, наприклад, найменше значення лямбда, задане з glmnet
> predict(fit1,type="coef", s = 0.008907)
21 x 1 sparse Matrix of class "dgCMatrix"
1
(Intercept) -0.08872364
V1 0.23734885
V2 -0.35472137
V3 -0.08088463
V4 .
V5 .
V6 .
V7 0.31127123
V8 .
V9 .
V10 .
V11 0.10636867
V12 .
V13 -0.20328200
V14 -0.77717745
V15 .
V16 -0.25924281
V17 .
V18 .
V19 -0.57989929
V20 -0.22522859
Якщо замість цього я вибираю лямбда з
cv <- cv.glmnet(x,y)
model=glmnet(x,y,lambda=cv$lambda.min)
Усі змінні будуть (.).
Сумніви та питання:
- Я не впевнений, як вибрати лямбда.
- Чи варто використовувати не (.) Змінні, щоб відповідати іншій моделі? У моєму випадку я хотів би зберегти якомога більше змінних.
- Як я можу знати значення p, тобто які змінні значно прогнозують відповідь?
Прошу вибачення за свої слабкі статистичні знання! І дякую за будь-яку допомогу.