Коли вам надають попередній та ймовірність , які або не піддаються обчисленню у закритому вигляді, або такі, що задній розподіл не є типовим типом, моделювання безпосередньо від цієї цілі до наближення Монте-Карло заднього розподілу неможливо. Типовий приклад складається з ієрархічних моделей з неспорідненими пріорами, як, наприклад, у книзі BUGS .p(θ)f(x|θ)
p(θ|x)∝p(θ)f(x|θ)
Непрямі методи моделювання, такі як прийом-відхилення, коефіцієнт рівномірності чи методи відбору значень, які зазвичай стикаються з труднощами числення та точності, коли розмірність параметра збільшується за кілька одиниць.θ
Навпаки, методи Монте-Карло ланцюга Маркова більш піддаються великим розмірам, оскільки вони можуть досліджувати задній розподіл на локальній основі, тобто в околиці поточного значення, та на меншій кількості компонентів, тобто на підпросторах. Наприклад, пробовідбірник Гіббса підтверджує уявлення, що моделювання одновимірної цілі за один раз, а саме повних умовних розподілів, пов'язаних з , є достатнім для досягнення імітації з справжнього заднього в довгостроковому періоді.p(θ|x)
Ланцюг Маркова Монте-Карло також використовує певну ступінь універсальності в тому, що такі алгоритми, як алгоритм Метрополіса-Гастінгса, формально доступні для будь-якого заднього розподілу який можна обчислити до постійної.p(θ|x)
У випадках, коли неможливо легко обчислити, існують альтернативи, або доповнивши цей розподіл у керованому розподілі на більшому просторі, як у або за допомогою немарківських методів, таких як ABC .p(θ)f(x|θ)
p(θ)f(x|θ)∝∫g(z|θ,x)p(θ)f(x|θ)dz
Методи MCMC дали значно ширший обсяг для байєсівських методів, про що свідчить підйом, що послідував за популяризацією методу Аланом Гельфандом та Адріаном Смітом у 1990 році.