Я б рекомендував використовувати "бета-розподіл другого роду" (бета-версія 2 ) для м'яко інформативного розподілу та використовувати кон'югований зворотний розподіл гами, якщо у вас є сильні попередні переконання. Причиною, про яку я кажу, є те, що попередній кон'югат є неміцним в тому сенсі, що якщо конфлікт між даними та даними, то пріоритет має необмежений вплив на задній розподіл. Така поведінка - це те, що я б назвав "догматичним", а не виправдане м'якою попередньою інформацією.
Властивістю, яка визначає стійкість, є поведінка хвоста попереднього та ймовірного. Дуже хороша стаття, в якій викладені технічні деталі, тут . Наприклад, може бути обрана ймовірність (скажімо, t-розподіл), така що, як спостереження (тобто стає довільно великим), вона відкидається від аналізу параметра розташування (майже так само, як ви інтуїтивно зрозуміли б робити з таким спостереженням). Швидкість «відкидання» залежить від того, наскільки важкі хвости розподілу.yi→∞
Деякі слайди, які показують застосування в контексті ієрархічного моделювання, можна знайти тут (показує математичну форму розподілу Beta 2 ), з документом тут .
Якщо ви не перебуваєте в контексті ієрархічного моделювання, я б запропонував порівняти задній (або будь-які результати, які ви створюєте), але скористайтеся Jeffreys попередньо для параметра масштабу, який задається . Це може бути створено як обмеженнящільностіBeta2,оскільки обидва його параметра сходяться до нуля. Для наближення ви можете використовувати малі значення. Але я б спробував розробити рішенняаналітично,якщо це взагалі можливо (а якщо не повне аналітичне рішення, отримайте аналітичне рішення настільки далеко, наскільки це можливо), тому що ви не тільки заощадите собі деякий обчислювальний час, але ви також, можливо, кращезрозумієте,що відбувається у вашій моделі.p ( σ) ∝ 1σ
Наступною альтернативою є визначення вашої попередньої інформації у вигляді обмежень (середнє значення , відхилення, рівне V , IQR, рівне I Q R і т. Д. Зі значеннями M , V , I Q R, визначеними власноруч), а потім використовуйте максимальний розподіл ентропії (шукайте будь-яку роботу Едвіна Джейнеса або Ларрі Бретторста, щоб добре пояснити, що таке "Максимальна ентропія", а що ні ") стосовно" інваріантної міри "Джеффріса m ( σ ) = 1MVIQRM,V,IQR . m(σ)=1σ
MaxEnt - це версія "Rolls Royce", тоді як Beta 2 - це більше "седан". Причиною цього є те, що розподіл MaxEnt "приймає найменше" з урахуванням обмежень, які ви вклали в нього (наприклад, жодних обмежень означає, що ви просто отримаєте Jeffreys раніше), тоді як розподіл Beta 2 може містити деякі "приховані" функції, які може бути або не бажаним у вашому конкретному випадку (наприклад, якщо попередня інформація є більш достовірною, ніж дані, то бета-версія 2 погана).
Інша приємна властивість розподілу MaxEnt полягає в тому, що якщо в механізмі генерування даних немає визначених обмежень, то розподіл MaxEnt є переважно найбільш імовірним розподілом, яке ви побачите (ми говоримо, що шанси перевищують мільярди і трильйони до одного). Отже, якщо дистрибутив, який ви бачите, не є MaxEnt, то, ймовірно, є додаткові обмеження, які ви не вказали, працюючи над істинним процесом, і спостережувані значення можуть дати підказку щодо того, яким може бути цей обмеження.