Алгоритми MCMC, такі як відбір проб Metropolis-Hastings та Gibbs, є способами відбору проб із спільних заднього розподілу.
Я думаю, що я розумію і можу легко реалізувати мегаполіси - ви просто якось вибираєте початкові точки і «прогулюєте простір параметрів» випадковим чином, керуючись задньою щільністю та щільністю пропозицій. Вибірка Гіббса здається дуже схожою, але ефективнішою, оскільки вона оновлює лише один параметр за один раз, а інші тримають постійними, ефективно прогулюючи простір ортогонально.
Для цього вам потрібно повна умовна умова кожного параметра в аналітичному від *. Але звідки беруться ці повні умови? Щоб отримати знаменник, потрібно маргіналізувати суглоб понад . Мабуть, це багато аналітичної роботи, якщо є багато параметрів, і це не може бути простежено, якщо спільний розподіл не дуже «приємний». Я розумію, що якщо ви використовуєте сумісність у всій моделі, повні умови можуть бути простими, але для більш загальних ситуацій повинен бути кращий спосіб. x1
Усі приклади вибірки Гіббса, які я бачив в Інтернеті, використовують приклади іграшок (наприклад, вибірки з багатоваріантної норми, де умови є просто нормальними), і, схоже, ухиляються від цього питання.
* Або вам взагалі потрібні повні умови в аналітичній формі? Як це роблять такі програми, як winBUGS?