Коли MCMC корисний?


12

У мене виникають проблеми з розумінням, в якій ситуації підхід MCMC насправді корисний. Я переглядаю іграшковий приклад з книги Крушке «Проведення аналізу даних байесів: підручник з R та BUGS».

Я зрозумів, що поки що це те, що нам потрібен цільовий розподіл, пропорційний , щоб мати вибірку . Однак мені здається, що як тільки у нас нам потрібно лише нормалізувати розподіл, щоб отримати задній, і коефіцієнт нормалізації можна було легко знайти чисельно. То які випадки, коли це неможливо?p(D|θ)p(θ)P(θ|D)p(D|θ)p(θ)


2
Припустимо, не є скалярним, але натомість є вектором \ boldsymbol \ theta, що має 10000 розмірів. θθ
Ян Гальковський

1
Моя відповідь була трохи короткою. Щоб отримати константу, потрібно обчислити p(D|θ)p(θ) . Навіть у скалярному випадку, припустимо, p(D|θ) справді химерний, тому інтеграцію важко зробити, навіть чисельно. Тоді ви, можливо, захочете використовувати MCMC.
Ян Гальковський

2
Обережне слово від Алана Сокаля: "Монте-Карло - надзвичайно поганий метод; його слід застосовувати лише тоді, коли всі альтернативні методи найгірші". Потім він приступає до тривалого обговорення методів МС. stat.unc.edu/fa fakulte/cji/Sokal.pdf
Yair Daon

1
@Yair: Мені це здається, що Сокал спрямовує Черчілля.
кардинал

1
Коли більше нічого не вийде ...
kjetil b halvorsen

Відповіді:


10

Інтеграція Монте-Карло - це одна із форм чисельної інтеграції, яка може бути набагато ефективнішою, ніж, наприклад, числова інтеграція шляхом наближення інтеграду до поліномів. Особливо це стосується великих розмірів, де прості методи чисельної інтеграції вимагають великої кількості оцінок функцій. Для обчислення константи нормалізації ми могли б використовувати вибірку важливості ,p(D)

p(D)=q(θ)q(θ)p(θ)p(Dθ)dθ1Nnwnp(θn)p(Dθn),

де і вибірки з . Зауважимо, що нам потрібно лише оцінити спільний розподіл у вибіркових точках. Для правильного цей оцінювач може бути дуже ефективним, оскільки вимагає дуже мало вибірок. На практиці вибір відповідного може бути складним, але саме тут MCMC може допомогти! Вибірка відібраної важливості (Neal, 1998) поєднує MCMC з вибіркою важливості.wn=1/q(θn)θnqqq

Ще одна причина, чому MCMC є корисною, є така: нас зазвичай навіть не так цікавить задня щільність , а скоріше підсумкова статистика та очікування , наприклад,θ

p(θD)f(θ)dθ.

Знання , як правило, не означає, що ми можемо вирішити цей інтеграл, але зразки - це дуже зручний спосіб його оцінити.p(D)

Нарешті, можливість оцінювати є вимогою до деяких методів MCMC, але не для всіх (наприклад, Murray et al., 2006 ).p(Dθ)p(θ)


Вибачте, але мені це все одно не зрозуміло. Моє запитання: якщо ми просто множимо отримаємо ненормалізований pdf. Запустивши MCMC, ми отримуємо зразок, для якого ми можемо оцінити ненормалізований pdf. Якщо ми хочемо, ми могли б нормалізувати і те, і інше. Отже, ПРИЗНАЧЕННЯ Я не зацікавлений у будь-якій підсумковій статистиці, а лише у афішах, чому ми в першу чергу використовуємо MCMC? Як ви вже говорили, деякі методи MCMC не вимагають обчислення , тому я не посилаюся на них. Наскільки я знаю, більшість з них вимагає обчислення цього. У чому корисність цих методів? p(D|θ)p(θ)p(D|θ)p(θ)
Вааал

2
Під час запуску MCMC ви отримуєте зразок з нормованого pdf, тому уникайте обчислення константи нормалізації. І це безкоштовно.
Сіань

2
@Vaaal: Ваша припущення, що "коефіцієнт нормалізації можна легко знайти чисельно" має місце лише для простих одновимірних розподілів. Для великого розміру нормалізувати взагалі вкрай складно. У цьому випадку MCMC все ще може бути використаний для оцінки константи нормалізації (наприклад, шляхом відібраного відбору відібраного значення). θp(Dθ)p(θ)
Лукас

6

Коли вам надають попередній та ймовірність , які або не піддаються обчисленню у закритому вигляді, або такі, що задній розподіл не є типовим типом, моделювання безпосередньо від цієї цілі до наближення Монте-Карло заднього розподілу неможливо. Типовий приклад складається з ієрархічних моделей з неспорідненими пріорами, як, наприклад, у книзі BUGS .p(θ)f(x|θ)

p(θ|x)p(θ)f(x|θ)

Непрямі методи моделювання, такі як прийом-відхилення, коефіцієнт рівномірності чи методи відбору значень, які зазвичай стикаються з труднощами числення та точності, коли розмірність параметра збільшується за кілька одиниць.θ

Навпаки, методи Монте-Карло ланцюга Маркова більш піддаються великим розмірам, оскільки вони можуть досліджувати задній розподіл на локальній основі, тобто в околиці поточного значення, та на меншій кількості компонентів, тобто на підпросторах. Наприклад, пробовідбірник Гіббса підтверджує уявлення, що моделювання одновимірної цілі за один раз, а саме повних умовних розподілів, пов'язаних з , є достатнім для досягнення імітації з справжнього заднього в довгостроковому періоді.p(θ|x)

Ланцюг Маркова Монте-Карло також використовує певну ступінь універсальності в тому, що такі алгоритми, як алгоритм Метрополіса-Гастінгса, формально доступні для будь-якого заднього розподілу який можна обчислити до постійної.p(θ|x)

У випадках, коли неможливо легко обчислити, існують альтернативи, або доповнивши цей розподіл у керованому розподілі на більшому просторі, як у або за допомогою немарківських методів, таких як ABC .p(θ)f(x|θ)

p(θ)f(x|θ)g(z|θ,x)p(θ)f(x|θ)dz

Методи MCMC дали значно ширший обсяг для байєсівських методів, про що свідчить підйом, що послідував за популяризацією методу Аланом Гельфандом та Адріаном Смітом у 1990 році.


Посилання на КНИГУ БУГА більше не працює.
HelloWorld
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.