В даний час я вивчаю ієрархічні байєсові моделі за допомогою JAGS від R, а також pymc за допомогою Python ( "Байєсівські методи для хакерів" ).
Я можу отримати певну інтуїцію з цього посту : "ви закінчите купу купу чисел, яка виглядає" так, ніби "вам якимось чином вдалося взяти незалежні вибірки із складного розповсюдження, про яке ви хотіли знати". Це щось на кшталт того, що я можу дати умовну ймовірність, тоді я можу генерувати процес без запам'ятовування на основі умовної ймовірності. Коли я генерую процес досить довго, то ймовірність спільного зближення може збільшитися. І тоді я можу взяти купу чисел у кінці створеної послідовності. Це так само, як я беру незалежні зразки зі складного спільного розподілу. Наприклад, я можу зробити гістограму, і вона може наближати функцію розподілу.
Тоді моя проблема полягає в тому, чи потрібно мені доводити, чи конвергується MCMC для певної моделі? Мене мотивує це знати, тому що я раніше вивчив алгоритм ЕМ для GMM та LDA (графічні моделі). Якщо я можу просто використовувати алгоритм MCMC, не доводячи, чи він конвергується, то це може заощадити набагато більше часу, ніж ЕМ. Оскільки мені доведеться обчислити очікувану функцію ймовірності журналу (доведеться обчислити задню ймовірність), а потім максимізувати очікувану ймовірність журналу. Це, мабуть, громіздкіше, ніж MCMC (мені просто потрібно сформулювати умовну ймовірність).
Мені також цікаво, чи співпадають функції ймовірності та попередній розподіл. Чи означає це, що MCMC повинен сходитися? Мені цікаво про обмеження MCMC та EM.