Приклади помилок в алгоритмах MCMC


28

Я досліджую метод автоматичної перевірки методів Монте-Карло ланцюга Маркова, і я хотів би декілька прикладів помилок, які можуть виникнути при побудові або реалізації таких алгоритмів. Бонусні бали, якщо в опублікованій роботі був використаний неправильний метод.

Мене особливо цікавлять випадки, коли помилка означає, що ланцюг має неправильний інваріантний розподіл, хоча також будуть цікаві й інші типи помилок (наприклад, ланцюжок не ергодична).

Прикладом такої помилки може стати неможливість виведення значення, коли Metropolis-Hastings відхиляє запропонований крок.


7
Один з моїх улюблених прикладів - оцінка гармонійного середнього рівня, оскільки він має приємні асимптотичні властивості, але він не працює на практиці. Радфорд Ніл обговорює це у своєму блозі: "Погана новина полягає в тому, що кількість балів, необхідних для того, щоб цей оцінювач наблизився до правильної відповіді, часто буде більшим, ніж кількість атомів у спостережуваному Всесвіті". Цей метод широко впроваджений у додатках.

3
Ще одна ввічливість професора Ніла.
Cyan

5
@Cyan Щоб Ніла сприймати серйозно, я думаю, він мав би знайти журнал, який би прийняв його статтю, а не просто надсилав її в Інтернеті. Я легко можу повірити, що він має рацію, а арбітри та автор неправильні. Хоча важко опублікувати документи, що суперечать опублікованим результатам, і відмова JASA відлякує, я думаю, що він повинен був спробувати кілька інших журналів, поки він не досяг успіху. Вам потрібен неупереджений і незалежний арбітр, щоб додати достовірності вашим висновкам.
Майкл Р. Черник

4
Завжди слід сприймати професора Ніла серйозно! ; o) Серйозно шкода, що такі результати важко опублікувати, і, на жаль, сучасна академічна культура, схоже, не цінує такого роду речі, тому це зрозуміло, якщо це не пріоритетна діяльність для нього. Цікаве запитання, мене дуже цікавлять відповіді.
Дікран Марсупіал

6
@Michael: Можливо. Будучи з усіма сторонами подібних ситуацій, в тому числі і на посаді проф. Ніла, неодноразово мої анекдотичні зауваження полягають у тому, що відмова від паперу несе в собі дуже-дуже мало інформаційного змісту в більшості випадків, як і багато прийняття. Експертна оцінка - це наряди на шумливіші розміри, ніж люди хочуть визнати, і часто, як це може бути тут, є часткові і зацікавлені (тобто не незалежні) сторони та інтереси. При цьому, я не мав наміру свій оригінальний коментар зайняти нас поки що далеко від цієї теми. дякуємо поділитися своїми думками з цього питання.
кардинал

Відповіді:


11

1. Гранична ймовірність та гармонійний середній оцінювач

Гранична ймовірність визначаються як нормалізує константи заднього розподілу

p(x)=Θp(x|θ)p(θ)dθ.

Важливість цієї кількості походить від ролі, яку вона відіграє у порівнянні моделі за допомогою факторів Байєса .

Для наближення цієї кількості запропоновано кілька методів . Raftery та ін. (2007) пропонують оцінку середньої гармонійної гармонії , яка швидко стала популярною завдяки своїй простоті. Ідея полягає у використанні відношення

1p(x)=Θp(θ|x)p(x|θ)dθ.

(θ1,...,θN)

1p(x)1Nj=1N1p(x|θj).

Це наближення пов'язане з концепцією вибірки важливості .

N

Альтернативи

p(x)

2. Якщо ваш пробник MCMC не працює досить довго (особливо за наявності мультимодальності)

2000φ

введіть тут опис зображення

φ (0.63,5.29)00

введіть тут опис зображення

(0,7.25)

3. Деякі інші питання, такі як оцінка конвергенції, вибір вихідних значень, погана поведінка ланцюга, можуть бути знайдені в цій дискусії Гельманом, Карліном та Нілом.

4. Важливість вибірки

g

I=f(x)dx=f(x)g(x)g(x)dx.

g(x1,...,xN)I

I1Nj=1Nf(xj)g(xj).

gfN

# Integrating a Student's t with 1 d.f. using a normal importance function   
x1 = rnorm(10000000)   # N=10,000,000
mean(dt(x1,df=1)/dnorm(x1))

# Now using a Student's t with 2 d.f. function
x2 = rt(1000,df=2)
mean(dt(x2,df=1)/dt(x2,df=2))

2
Вони є чудовими прикладами. Для всіх, хто цікавиться, лист до редактора з малюнком знаходиться тут: onlinelibrary.wiley.com/doi/10.1002/bimj.200800256/abrief
Саймон

2
Дуже приємний і чіткий підсумок !! (+1)
gui11aume

12

Даррен Вілкінсон у своєму блозі наводить докладний приклад поширеної помилки у випадковій прогулянці Метрополіс-Гастінгс. Я рекомендую прочитати його повністю, але ось версія tl; dr.

Якщо цільовий розподіл є позитивним (як-от гамма-дистрибуції тощо ) в одному вимірі, спокусити негайно відхилити пропозиції, які мають негативне значення для цього виміру. Помилка полягає в тому, щоб відкинути пропозиції так, як вони ніколи не відбувалися, і оцінити співвідношення прийняття Метрополіс-Гастінгса (MH) лише для інших. Це помилка, оскільки це означає використання несиметричної щільності пропозиції.

Автор пропонує застосувати один із двох виправлень.

  1. Порахуйте "негативи" як невдалі (і втрачайте трохи ефективності).

  2. Використовуйте правильне співвідношення MH у тому випадку, яке є

π(x)π(x)Φ(x)Φ(x),

πΦϕ Φ(x)=0ϕ(yx)dy


1
+1 Цікавий приклад. Я також думав про інші проблеми з МЗ, пов'язані зі швидкістю прийняття. Я думаю, що оптимальна норма 0,234 була використана.

@Procrastinator ви дуже добре знаєте літературу MCMC. Це ваша область досвіду?
gui11aume

Дякуємо за ваш коментар Мені подобається байєсівська статистика, тоді мені потрібно нести хрест MCMC;).

1

Дуже чіткий випадок (пов'язаний з наближенням граничної ймовірності, згаданим у першій відповіді), коли справжня конвергенція є прикладом проблеми перемикання міток у моделях сумішей у поєднанні з використанням оцінника Chib (1995) . Як вказував Радфорд Ніл (1999), якщо ланцюг MCMC неправильно збігається, в тому сенсі, що він досліджує деякий режим розподілу цілі, наближення Монте-Карло до Chib не досягає потрібного числового значення.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.