Коли можна використовувати вибірку Гіббса замість Metropolis-Hastings?


20

Існують різні види алгоритмів MCMC:

  • Метрополіс-Гастінгс
  • Гіббс
  • Важливість / відбір вибірки (пов'язаний).

Чому можна використовувати вибірку Гіббса замість Metropolis-Hastings? Я підозрюю, що трапляються випадки, коли висновок є більш простежуваним за допомогою відбору проб Гіббса, ніж з "Метрополіс-Гастінгсом", але мені не зрозуміло конкретики.


3
Вгорі голови (минув певний час, тому я не викладаю це як відповідь), Гіббс швидше, коли це працює, тоді як Metropolis-Hastings може впоратися з більш широким розмаїттям моделей, оскільки він не обмежений до ортогональних кроків у просторі параметрів.
Кодіолог

4
Ви можете чи не знаєте, що Гіббса може розглядатися як екземпляр Метрополіс-Гастінгса, тому ви, можливо, захочете уточнити, що ви маєте на увазі щось на кшталт "Метрополіс-Гастінгс з локальними перехідними розподілами".
Дугал

Відповіді:


22

По-перше, дозвольте зазначити [дещо педантично] це

Існує кілька різних видів алгоритмів MCMC: Metropolis-Hastings, Gibbs, вибірка важливості / відхилення (пов'язана).

fωfff

По-друге, питання

Чому хтось ходив би з пробами Гіббса замість Метрополіс-Гастінгса? Я підозрюю, що трапляються випадки, коли умовивід більш простежується за допомогою відбору проб Гіббса, ніж з Metropolis-Hastings

не має відповіді, що пробовідбірник Метрополіса-Гастінгса може бути майже будь-чим, включаючи пробовідбірника Гіббса. Я відповів досить детально на попереднє та подібне питання. Але дозвольте додати декілька, якщо зайві моменти тут:

Основна причина, по якій було введено вибірку Гіббса, полягала в тому, щоб зламати прокляття розмірності (що впливає як на відхилення, так і на важливість вибірки) шляхом створення послідовності симуляцій з низькими розмірами, які все ще сходяться до потрібної цілі. Хоча розмірність цілі впливає на швидкість конвергенції. Пробовідбірники Metropolis-Hastings розроблені для створення ланцюга Маркова (на зразок відбору проб Гіббса) на основі пропозиції (як важливість та вибірки відхилення) шляхом виправлення неправильної щільності за допомогою кроку прийняття-відхилення. Але важливим моментом є те, що вони не проти: а саме для вибірки Гіббса можуть знадобитися кроки Метрополіс-Гастінгса, коли вони стикаються зі складними умовними цілями низького розміру, тоді як пропозиції Метрополіс-Гастінгса можуть будуватися на наближеннях до (Гіббсу) повних умов. У формальному визначенні Вибірка Гіббса - це особливий випадок алгоритму Metropolis-Hasting з вірогідністю прийняття одного. (До речі, я заперечую проти використаннявисновок у цій цитаті, як я б зарезервував це для статистичних цілей, тоді як ці вибірки є числовими пристроями.)

Зазвичай вибірки Гіббса (розуміються як виконання послідовності умовно-імітаційних низьких розмірів) надають перевагу в налаштуваннях, де розкладання на такі умовні умови легко здійснити та швидко запустити. У налаштуваннях, де такі декомпозиції викликають мультимодальність і, отже, утруднюється перехід між режимами (на думку приходять латентні мінливі моделі, такі як моделі сумішей), використання більш глобальної пропозиції в алгоритмі Metropolis-Hasting може призвести до більшої ефективності. Але недолік полягає в виборі розподілу пропозицій в алгоритмі Metropolis-Hasting.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.