Запитання з тегом «lasso»

Метод регуляризації для регресійних моделей, який зменшує коефіцієнти до нуля, при цьому деякі з них дорівнюють нулю. Таким чином, ласо виконує вибір функції.

1
Багатовимірна лінійна регресія з ласо в r
Я намагаюся створити зменшену модель, щоб передбачити багато залежних змінних (DV) (~ 450), які сильно корелюються. Мої незалежні змінні (IV) також численні (~ 2000) і сильно корелюються. Якщо я використовую ласо для вибору зменшеної моделі для кожного виводу окремо, я не гарантую, що я отримаю той самий підмножина незалежних змінних, …

1
Чому проксимальний градієнтний спуск замість простих субградієнтних методів для Лассо?
Я думав вирішити Лассо за допомогою градієнтних методів ванілі. Але я читав людей, які пропонують використовувати проксимальний градієнтний спуск. Чи може хтось виділити, чому для Лассо застосовують проксимальний ГД замість методів градієнта ванілі?

1
LASSO для пояснювальних моделей: зменшені параметри чи ні?
Я провожу аналіз, де головна мета - зрозуміти дані. Набір даних достатньо великий для перехресної перевірки (10 к), і передбачувачі включають як безперервні, так і фіктивні змінні, а результат - безперервний. Основна мета полягала в тому, щоб зрозуміти, чи є сенс виганяти деякі прогнози, щоб спростити інтерпретацію моделі. Запитання: Моє …

1
Як інтерпретувати змінні, які виключаються із моделі ласо?
Мені з інших публікацій стало зрозуміло, що не можна віднести «важливість» чи «значущість» змінним прогнозувача, які входять в модель ласо, тому що обчислення р-значень цих змінних або стандартних відхилень все ще триває. Згідно з цим міркуванням, чи правильно стверджувати, що один НЕ МОЖЕ говорити, що змінні, які були виключені з …

1
Зв'язок між рецептурами Лассо
Це питання може бути німим, але я помітив, що є дві різні форми регресії Лассо . Ми знаємо, що проблема Лассо полягає в тому, щоб мінімізувати мету, що складається з квадратної втрати плюс штрафний термін -1, виражений таким чином, LLLminβ∥y−Xβ∥22+λ∥β∥1minβ‖y−Xβ‖22+λ‖β‖1 \min_\beta \|y - X \beta\|_2^2 + \lambda \|\beta\|_1 \; Але …
9 lasso 

1
Як glmnet обробляє наддисперсію?
У мене є питання про моделювання тексту над даними підрахунку, зокрема, як я можу використовувати lassoтехніку для зменшення функцій. Скажіть, у мене є N онлайн-статей і кількість переглядів сторінок для кожної статті. Я вилучив 1-грам і 2-грам для кожної статті і хотів провести регресію на 1,2-грам. Оскільки особливостей (1,2-грам) набагато …

3
Вибір k вузлів при сплайсі згладжування регресії, еквівалентний k категоричним змінним?
Я працюю над моделлю прогнозних витрат, де вік пацієнта (ціла кількість, виміряна в роках) є однією із змінних прогнозів. Очевидна сильна нелінійна залежність між віком та ризиком перебування у лікарні: Я розглядаю санкціоновану сплайсинг згладжування регресії для віку пацієнта. Згідно з елементами статистичного навчання (Hastie et al, 2009, с.151), оптимальне …

4
Налаштування порядку відставання?
Припустимо, у мене є поздовжні дані форми Y =(Y1, … ,YJ) ∼ N( μ , Σ )Y=(Y1,…,YJ)∼N(μ,Σ)\mathbf Y = (Y_1, \ldots, Y_J) \sim \mathcal N(\mu, \Sigma)(У мене є кілька спостережень, це просто форма єдиного). Мене цікавлять обмеження щодоΣΣ\Sigma. Без обмеженьΣΣ\Sigma еквівалентно прийому Yj=αj+∑ℓ = 1j - 1ϕℓ jYj - ℓ+εjYj=αj+∑ℓ=1j−1ϕℓjYj−ℓ+εj …

2
Обчисліть криву ROC для даних
Отже, у мене є 16 випробувань, в яких я намагаюся ідентифікувати людину з біометричної ознаки за допомогою дистанції Hamming. Мій поріг встановлено на 3,5. Мої дані нижче, і лише пробна версія 1 - справжнє Позитивне: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.