Ви спробували показати детальний баланс для ланцюга Маркова, який отримують, вважаючи один перехід ланцюга Маркова "розгорткою Гіббса", де ви вибираєте кожен компонент по черзі з його умовного розподілу. Для цього ланцюга детальний баланс не виконується. Сенс у тому, що кожен вибірки певного компонента з його умовного розподілу є переходом, який задовольняє детальний баланс. Точніше було б сказати, що вибірки Гіббса - це особливий випадок злегка узагальненого Метрополіс-Гастінгса, де ви чергуєте безліч різних пропозицій. Детальніше читайте далі.
Промітки не задовольняють детальний баланс
Я будую контрприклад. Розглянемо дві змінні Бернуллі ( ) з ймовірностями, як показано в наступній таблиці:
X1,X2
Припустимо, що розгортка Гіббса впорядкована таким чином, щобX1було відібрано спочатку. Перейти з стану(0,0)у стан(1,1)одним рухом неможливо, оскільки це вимагатиме переходу від(0,0)до(1,0). Однак перехід від(1,1)до(0,0)має позитивну ймовірність, а саме1
X1=0X1=1X2=0130X2=11313
X1(0,0)(1,1)(0,0)(1,0)(1,1)(0,0) . Отже ми робимо висновок, що детальний баланс не виконується.
14
Однак цей ланцюг все ще має стаціонарний розподіл, який є правильним. Детальний баланс є достатньою, але не необхідною умовою для наближення до цільового розподілу.
Компонентні ходи задовольняють детальний баланс
Розглянемо стан з двома змінними, де ми вибираємо першу змінну з її умовного розподілу. Переміщення між і ( y 1 , y 2 ) має нульову ймовірність в обох напрямках, якщо x 2 ≠ y 2, і, таким чином, для цих випадків чітко виконується детальний баланс. Далі розглянемо x 2 = y 2 :
π ( x 1 , x 2 ) P r o b ( ( x(x1,x2)(y1,y2)x2≠y2x2=y2
π(x1,x2)Prob((x1,x2)→(y1,x2))=π(x1,x2)p(y1∣X2=x2)=π(x1,x2)π(y1,x2)∑zπ(z,x2)=π(y1,x2)π(x1,x2)∑zπ(z,x2)=π(y1,x2)p(x1∣X2=x2)=π(y1,x2)Prob((y1,x2)→(x1,x2)).
Як рухаються складовими рухами Метрополіс-Гастінгс?
1(x1,x2) to (y1,y2), the ratio of target probabilities is
π(y1,x2)π(x1,x2).
But the ratio of proposal probabilities is
Prob((y1,x2)→(x1,x2))Prob((x1,x2)→(y1,x2))=π(x1,x2)∑zπ(z,x2)π(y1,x2)∑zπ(z,x2)=π(x1,x2)π(y1,x2).
So, the ratio of target probabilities and the ratio of proposal probabilities are reciprocals, and thus the acceptance probability will be
1. In this sense, each of the moves in the Gibbs sampler are special cases of Metropolis-Hastings moves. However, the overall algorithm viewed in this light is a slight generalization of the typically presented Metropolis-Hastings algorithm in that you have alternate between different proposal distributions (one for each component of the target variable).