Обидва ці методи (ЛАССО проти шипа та плити) можна інтерпретувати як проблеми Байєсової оцінки, де ви вказуєте різні параметри. Однією з головних відмінностей є те, що метод LASSO не ставить жодних точкових мас на нуль для попереднього (тобто параметри майже напевно не є нульовими апріорі), тоді як шип-і-плита ставить значну точкову масу на нуль.
На мою скромну думку, головна перевага методу шипових і плит полягає в тому, що він добре підходить для проблем, коли кількість параметрів перевищує кількість точок даних , і ви хочете повністю усунути значну кількість параметрів від моделі. Оскільки цей метод ставить велику точкову масу на нуль у попередньому, він дасть задні оцінки, які, як правило, включають лише невелику частку параметрів, сподіваємось уникнути зайвого пристосування даних.
Коли ваш професор каже вам, що колишній не виконує змінний метод вибору, він, мабуть, означає це. За LASSO кожен з параметрів майже напевно не є нульовим апріорі (тобто всі вони є в моделі). Оскільки ймовірність також не є нульовою для підтримки параметрів, це також буде означати, що кожен з них майже напевно є не нульовим апріорі (тобто всі вони є в моделі). Тепер ви можете доповнити це тестом гіпотези і таким чином відключити параметри з моделі, але це був би додатковий тест, накладений поверх байєсівської моделі.
Результати байєсівської оцінки будуть відображати внесок даних і внесок попереднього. Звичайно, попередній розподіл, який є більш тісно зосередженим навколо нуля (як шип і плита), дійсно «зменшить» оцінювачі параметрів, що виходять, порівняно з попереднім, який менш концентрований (як LASSO). Звичайно, це "скорочення" - це лише ефект попередньої інформації, яку ви вказали. Форма попереднього LASSO означає, що він скорочує всі оцінки параметрів у напрямку до середнього значення по відношенню до більш рівного попереднього.