Коли я повинен турбуватися про парадокс Джеффріс-Ліндлі у виборі моделі Байесія?


12

Я розглядаю великий (але кінцевий) простір моделей різної складності, які я досліджую за допомогою RJMCMC . Попередній вектор параметрів для кожної моделі є досить інформативним.

  1. У яких випадках (якщо такі є) я повинен турбуватися через парадокс Джеффріс-Ліндлі, який надає перевагу більш простим моделям, коли одна з більш складних моделей буде більш підходящою?

  2. Чи є прості приклади, які висвітлюють проблеми парадокса у виборі байесівської моделі?

Я прочитав кілька статей, а саме блог Сіані в і блог Ендрю Гельмана , але я до сих пір не зовсім розумію проблему.


1
Я думаю, що запитань занадто багато, і вони занадто чіткі, щоб тут ефективно відповісти.
jaradniemi

Дякую за відгук, @jaradniemi, я зняв питання "Чи повинен процедура RJMCMC, яка ефективно повертає ймовірності задньої моделі, надавати перевагу тим же моделям, що і DIC?"
Джефф

Відповіді:


5

Вибачте за те, що ви неясні в своєму блозі !

Примітка. У цій іншій відповіді на перехресне підтвердження я визначив деякий досвід щодо вибору моделі Байесія та парадокса Джеффріс-Ліндлі .

Парадокс Джеффрі-Ліндлі пов'язаний з вибором байесівської моделі тим, що гранична ймовірність стає безглуздою, коли є -нескінченна міра (тобто міра з нескінченною масою), а не міра ймовірності. Причина цієї складності полягає в тому, що нескінченна маса робить і невідмінними для будь-якої позитивної константи . Зокрема, коефіцієнт Байєса не може бути використаний і не повинен використовуватися, коли одна модель наділена попереднім "плоским".

m(x)=π(θ)f(x|θ)dθ
πσπcπc

Оригінальний парадокс Джеффріс-Ліндлі використовує звичайний розподіл як приклад. При порівнянні моделей і коефіцієнт Байєса дорівнює Добре визначено, коли є правильним попереднім, але якщо ви берете звичайний попередній на і нехай переходить до нескінченності, знаменник переходить до нуля для будь-якого значення відмінного від нуля і будь-якого значення . (Якщо і

xN(0,1)
xN(θ,1)
B12=exp{n(x¯n)2/2}+exp{n(x¯nθ)2/2}π(θ)dθ
πN(0,τ2)θτx¯nnτnпов'язані, але це ускладнюється!) Якщо замість цього ви використовуєте безпосередньо де є обов'язково довільною постійною, коефіцієнт Байєса буде отже, безпосередньо залежить від .
π(θ)=c
cB12 c
B12=exp{n(x¯n)2/2}c+exp{n(x¯nθ)2/2}dθ=exp{n(x¯n)2/2}c2π/n
c

Тепер, якщо ваші пріори є інформативними (а значить, і належними), немає ніяких причин для парадоксу Джеффріс-Ліндлі. При достатній кількості спостережень фактор Байєса буде послідовно вибирати модель, яка генерувала дані. (Або, точніше, модель в колекції моделей, що розглядаються для вибору моделі, найбільш близької до "справжньої" моделі, яка генерувала дані.)


2
Велике спасибі за вашу дуже детальну відповідь, Сіане! Ваш блог дуже чіткий (я багато чого навчився з нього) Я просто трохи повільно розумів цю конкретну проблему!
Джефф

Насправді мій блог працює з дуже різними припущеннями щодо передумови та передумови, тому це, звичайно, незрозуміло часом та багатьом читачам!
Сіань
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.