Як отримати вибірку Гіббса?


11

Я насправді вагаюся з цим запитати, бо боюся, що мене віднесуть до інших питань або Вікіпедії щодо вибірки Гіббса, але я не маю відчуття, що вони описують те, що під рукою.

Дана умовна ймовірність : p ( x | y ) y = y 0 y = y 1 x = x 0 1p(x|y)

p(x|y)y=y0y=y1x=x01426x=x13446

І умовна ймовірність : p ( y | x ) y = y 0 y = y 1 x = x 0 1p(y|x)

p(y|x)y=y0y=y1x=x01323x=x13747

Ми можемо однозначно придумати спільну ймовірність :funique=p(x,y)

p(x,y)y=y0y=y1p(x)x=x0a0a1c0x=x1a2a3c1p(y)b0b1

Тому що, хоча у нас є невідомих, у нас є більше ( ) лінійних рівнянь:4 2 + 3842+3

a0+a1+a2+a3=1b0+b1=1c0+c1=1

Так добре як:

14b0=a034b0=a226(1b0)=a146(1b0)=a313c0=a023c0=a137(1c0)=a247(1c0)=a3

Це швидко вирішується , . А саме шляхом з . Це дає а решта випливає.c0=34b023c0=a124b0=a126(1b0)=a1b0=25

p(x,y)y=y0y=y1p(x)x=x0110210310x=x1310410710p(y)410610

Отже, зараз ми переходимо до безперервної справи. Можна уявити інтервали та тримати вищезгадану структуру в такті (з більшою кількістю рівнянь, ніж невідомих). Однак, що відбувається, коли ми переходимо до (точки) випадкових випадків змінних? Як проводиться відбір проб

xap(x|y=yb)ybp(y|x=xa)

ітеративно, привести до ? Як еквівалент обмеження , як це забезпечує ? Аналогічно з . Чи можемо ми записати обмеження та вивести вибірку Гіббса з перших принципів?p(x,y)X Y p ( x , y ) da0+a1+a2+a3=1XYp(x,y)dydx=1Yp(y|x)dy=1

Отже, мене не цікавить, як виконати відбір проб Гіббса, що є простим, але мене цікавить, як його отримати, а краще, як довести, що він працює (можливо, за певних умов).

Відповіді:


9

Обчислити спільний розподіл із умовних розподілів взагалі дуже складно. Якщо умовні розподіли обрані довільно, спільний спільний розподіл може навіть не існувати. У цьому випадку навіть показати, що умовні розподіли є послідовними, як правило, важко. Одним з результатів, який може бути використаний для отримання спільного розподілу, є лема Брука , вибравши фіксований стан , хоча я ніколи не використовував його успішно для цієї мети. Більше про цю тему я би роздивився твір Джуліана Бесага.

p(x)p(x)=ip(xix<i,x>i)p(xix<i,x>i),
x

Щоб довести, що вибірки Гіббса працюють, однак, краще взяти інший маршрут. Якщо ланцюг Маркова, реалізований алгоритмом вибірки, має розподіл як інваріантний розподіл і є невідмінним та апериодичним , то ланцюг Маркова сходиться до цього розподілу (Tierney, 1994) .p

Вибірка Гіббса завжди залишить спільний розподіл інваріантним, з якого були отримані умовні розподіли: Приблизно, якщо і ми , то(x0,y0)p(x0,y0)x1p(x1y0)

(x1,y0)p(x0,y0)p(x1y0)dx0=p(x1y0)p(y0)=p(x1,y0).

Тобто оновлення шляхом умовного вибірки не змінює розподілу вибірки.x

Однак вибірки Гіббса не завжди є невідводимими . Хоча ми завжди можемо застосувати його, не порушуючи речі (в тому сенсі, що якщо у нас вже є зразок із потрібного розподілу, воно не змінить розподіл), від спільного розподілу залежить, чи насправді вибірка Гіббса насправді до неї сходиться (достатня проста Умова невідводимості полягає в тому, що щільність скрізь позитивна, ).p(x)>0


Цікава проблема сумісності. Зараз я перевіряю "Сумісність кінцевих дискретних умовних розподілів" (Song et al.), Які використовують "матрицю відношення" для встановлення сумісності та унікальності. Таким чином, Гіббс не може бути похідним від цих обмежень, оскільки вони не повинні застосовуватися для початку. Я можу собі уявити, що він може повернути деякий неправильний спільний розподіл (сума> 1), якщо, наприклад, умовні розподіли несумісні. Я якось, однак, маю відчуття, що те, що я роблю, є чимось детермінованим, чимось схожим на перетворення Радона. Відбір проб Гіббса виглядає так ... брудно.
Енн ван Россум
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.