Наскільки я розумію, приблизні байєсівські обчислення (ABC) та ланцюг Маркова Монте-Карло (MCMC) мають дуже схожі цілі. Нижче я описую своє розуміння цих методів та те, як я сприймаю відмінності в їх застосуванні до реальних даних про життя.
Орієнтовний байєсівський обчислення
ABC полягає у вибірці параметра від попереднього, за допомогою чисельного моделювання обчислити статистику x i, яка порівнюється з деякими спостережуваними x o b s . На основі алгоритму відхилення, x i або зберігається, або відхиляється. Список збережених s зробив задній розподіл.
Марківська ланцюг Монте-Карло
MCMC полягає у вибірці попереднього розподілу параметра . Він бере перший зразок θ 1 , обчислює P ( x o b s | θ 1 ) P ( θ 1 ), а потім переходить (за деяким правилом) до нового значення θ 2, для якого P ( x o b s | θ 2 ) P ( θ 2 ) обчислюється знову. Співвідношення P обчислюється і залежно від деякого порогового значення наступний стрибок відбудеться з першої чи другої позиції. Дослідженняθзначень іде одне і одне, і до кінця розподіл збереженихθзначень - це задній розподілP(θ|x)(з досі невідомої мені причини).
Я усвідомлюю, що мої пояснення пропускають представлення різноманітності методів, що існують під кожним із цих термінів (особливо для MCMC).
ABC проти MCMC (плюси і мінуси)
ABC має ту перевагу, що не потрібно вміти аналітично розв’язувати . Як така ABC зручна для складної моделі, де MCMC не зробила б її.
MCMC дозволяє робити статистичні тести (тест на коефіцієнт ймовірності, G-тест, ...), хоча я не думаю, що це можливо для ABC.
Я правий поки що?
Питання
- Як ABC та MCMC відрізняються у своїх програмах? Як вирішується скористатися тим чи іншим методом?