До чого відноситься термін "рідкісний попередній" (папір FBProphet)?


11

Читаючи статтю "Прогнозування на масштабі" (інструмент прогнозування FBProphet, див. Https://peerj.com/preprints/3190.pdf ), я натрапив на термін "рідкий попередній". Автори пояснюють, що вони використовували такий "рідкий попередній" при моделюванні вектора відхилень швидкостіδ від деякої скалярної швидкості к, який є параметром моделі в логістичній моделі зростання.

Як вони констатують це δjЛаплас(0,τ), чи правильно я розумію, що "розріджений" відноситься до елементів, що несуть вектор, близький до нуля, якщо параметр τбув малий? Я розгублений, тому що я вважав, що всі векторні елементи повинні бути параметрами регресії, але визначаючи їх так, залишають лише параметрик і τ як безкоштовні параметри моделі, чи не так?

Також, чи використовується розподіл Лапласа для створення попереднього загального? Я не розумію, чому це віддано перевагу, наприклад, нормальному розподілу.


1
Мені також цікаво це питання, коли я читаю статті. Ви знайшли відповідь на це запитання? Крім того, ви задавали це запитання в розділі питань пророка гітуба ? Один з авторів (@bletham) досить активний у відповіді на запитання, і його пояснення, як правило, досить непогані.
leaRner

Відповіді:


4

Рідкі дані - це дані з багатьма нулями. Тут, здається, автори називають пріоритет рідкісним, тому що він уподобає нулі. Це досить зрозуміло, якщо дивитися на форму розподілу Лапласа (він же подвійний експоненціальний), що досягається максимуму навколо нуля.

(джерело зображення Tibshirani, 1996)

Цей ефект справедливий для будь-якого значенняτ (розподіл завжди припадає на його параметр розташування, тут дорівнює нулю), хоча чим менше значення параметра, тим більше регуляризуючого ефекту він має.

З цієї причини Laplace prior часто використовується як надійний попередній , що має ефект регуляризації. Зважаючи на це, пріоритет Лапласа є популярним вибором, але якщо ви хочете по-справжньому рідкісні рішення, можливо, буде кращий вибір, як описано Van Erp et al (2019).

Van Erp, S., Oberski, DL, & Mulder, J. (2019). Пріори усадки для Байєсової пенізованої регресії. Журнал математичної психології, 89 , 31-50. doi: 10.1016 / j.jmp.2018.12.004


3
+1 Я просто додам, що їх часто називають пріорами, що спричиняють рідкість, термін, який я особисто вважаю, є більш зрозумілим (попереднє
Джейк
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.