Запитання з тегом «gibbs»

Пробовідбірник Гіббса - це проста форма моделювання ланцюга Маркова Монте-Карло, широко застосовувана в баєсівській статистиці, заснована на вибірці з повних умовних розподілів для кожної змінної або групи змінних. Назва походить від методу, який вперше застосовується на випадкових полях Гіббса, що моделюють зображення Geman та Geman (1984).

4
OpenBugs проти JAGS
Я збираюся випробувати середовище стилю BUGS для оцінки байесівських моделей. Чи є якісь важливі переваги, які слід врахувати при виборі між OpenBugs або JAGS? Чи одна ймовірність замінити іншу в осяжному майбутньому? Я буду використовувати обраний Gibbs Sampler з R. У мене ще немає конкретного додатку, але я швидше вирішую, …
41 r  software  bugs  jags  gibbs 

1
Яка різниця між відбіркою Metropolis Гастінгсом, Гіббсом, важливістю та відхиленням?
Я намагався вивчити методи MCMC і натрапив на вибірку Metropolis Hastings, Gibbs, Importance та Rejection. Хоча деякі з цих відмінностей очевидні, тобто, як Гіббс є особливим випадком Метрополіса Гастінгса, коли ми маємо повну умову, інші менш очевидні, як, наприклад, коли ми хочемо використовувати MH у пробовідбірника Гіббса тощо. простий спосіб …

3
Гарні підручники та довідники Гіббса
Я хочу дізнатися, як працює відбір проб Гіббса, і я шукаю хороший основний та проміжний папір. У мене є інформація з інформатики та основні статистичні знання. Хтось читав хороший матеріал навколо? де ти це навчився? Спасибі
29 references  gibbs 

1
Які деякі вдосконалення щодо алгоритмів підручника MCMC, які люди використовують для байєсівського висновку?
Коли я кодую імітацію Монте-Карло для якоїсь проблеми, і модель досить проста, я використовую дуже базовий вибірковий зразок підручника Гіббса. Коли неможливо використовувати вибірку Гіббса, я кодую підручник «Метрополіс-Гастінгс», про який я дізнався роки тому. Єдина думка, яку я йому приділяю, - це вибір стрибкового розподілу або його параметрів. Я …

2
Відбір проб Гіббса порівняно із загальним MH-MCMC
Я щойно читав про вибірку Гіббса та алгоритм Metropolis Hastings і маю пару питань. Як я розумію, у випадку вибірки Гіббса, якщо у нас є велика багатоваріантна проблема, ми беремо вибірку з умовного розподілу, тобто вибірки однієї змінної, зберігаючи всі інші фіксованими, тоді як у MH ми робимо вибірку від …

1
Коли можна використовувати вибірку Гіббса замість Metropolis-Hastings?
Існують різні види алгоритмів MCMC: Метрополіс-Гастінгс Гіббс Важливість / відбір вибірки (пов'язаний). Чому можна використовувати вибірку Гіббса замість Metropolis-Hastings? Я підозрюю, що трапляються випадки, коли висновок є більш простежуваним за допомогою відбору проб Гіббса, ніж з "Метрополіс-Гастінгсом", але мені не зрозуміло конкретики.

1
Чи гарантує алгоритм відбору зразків Гіббса детальний баланс?
Я маю на вищому повноваженні 1, що вибірки Гіббса є особливим випадком алгоритму Метрополіс-Гастінгса для вибірки Маркова ланцюга Монте-Карло. Алгоритм MH завжди дає ймовірність переходу із властивістю детального балансу; Я очікую, що Гіббс теж повинен. То де я в наступному простому випадку помилився? Для цільового розподілу на двох дискретних (для …
17 mcmc  gibbs 

1
Стен проти Гельмана-Рубін визначення
Я переглядав документацію Стен, яку можна завантажити тут . Мене особливо зацікавило їх реалізація діагностики Гельмана-Рубіна. Оригінальний документ Gelman & Rubin (1992) визначає потенційний коефіцієнт зменшення масштабу (PSRF) наступним чином: Нехай є ланцюжком го Маркова, відібраний загальний незалежних ланцюгів. Нехай - середнє значення з го ланцюга, а загальне середнє значення. …

2
Звідки беруться повні умови в вибірці Гіббса?
Алгоритми MCMC, такі як відбір проб Metropolis-Hastings та Gibbs, є способами відбору проб із спільних заднього розподілу. Я думаю, що я розумію і можу легко реалізувати мегаполіси - ви просто якось вибираєте початкові точки і «прогулюєте простір параметрів» випадковим чином, керуючись задньою щільністю та щільністю пропозицій. Вибірка Гіббса здається дуже …
15 bayesian  mcmc  gibbs 

1
Гранична ймовірність виходу Гіббса
Я відтворюю з нуля результати в розділі 4.2.1 від Гранична ймовірність виходу Гіббса Сіддхартха Чиб Журнал Американської статистичної асоціації, Vol. 90, № 432. (груд., 1995), стор 1313-1321. Це суміш нормальної моделі з відомим числом k≥1k≥1k\geq 1 компонентів. f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) =\prod_{i=1}^n\sum_{j=1}^k \mathrm{N}(x_i\mid\mu_j,\sigma_j^2) \, . \qquad (*) z=(z1,…,zn)z=(z1,…,zn)z=(z_1,\dots,z_n)1,…,k1,…,k1,\dots,k f ( x …

1
Чому надлишкова середня параметризація прискорює Gibbs MCMC?
У книзі Gelman & Hill (2007) (Аналіз даних за допомогою регресії та багаторівневих / Ієрархічних моделей) автори стверджують, що включення надлишкових середніх параметрів може допомогти прискорити MCMC. Наведений приклад - це вкладена модель "тренажера польоту" (урівень 13.9): уiγjδк∼ N( μ + γj [ i ]+ δk [ i ], σ2у)∼ …

2
Чи вибірки Гіббса є методом MCMC?
Наскільки я це розумію, це (принаймні, саме так визначає Вікіпедія ). Але я знайшов це твердження Ефрона * (наголос додано): Ланцюжок Маркова Монте-Карло (MCMC) - це велика історія успіху сучасної байєсівської статистики. MCMC та його сестринський метод "вибірки Гіббса" дозволяють числовий розрахунок заднього розподілу в ситуаціях, занадто складних для аналітичного …
11 mcmc  gibbs 

1
Як перевірити, чи є матриця перехресної коваріації не нульовою?
Передумови мого дослідження : У вибірці Гіббса, де ми відбираємо (змінну інтересів) і з і відповідно, де і - -вимірні випадкові вектори. Ми знаємо, що процес зазвичай розбивається на два етапи:Y P ( X | Y ) P ( Y | X ) X Y kXXXYYYP(X|Y)P(X|Y)P(X|Y)P(Y|X)P(Y|X)P(Y|X)XXXYYYkkk Період згоряння, де ми …

1
Як отримати вибірку Гіббса?
Я насправді вагаюся з цим запитати, бо боюся, що мене віднесуть до інших питань або Вікіпедії щодо вибірки Гіббса, але я не маю відчуття, що вони описують те, що під рукою. Дана умовна ймовірність : p ( x | y ) y = y 0 y = y 1 x …
11 sampling  mcmc  gibbs 

1
Байєсське моделювання з використанням багатоваріантного нормального з коваріатом
Припустимо, у вас є пояснювальна змінна де s являє собою задану координату. Ви також маєте змінну відповіді Y = ( Y ( s 1 ) , … , Y ( s n ) ) . Тепер ми можемо поєднати обидві змінні як:X=(X(s1),…,X(sn))X=(X(s1),…,X(sn)){\bf{X}} = \left(X(s_{1}),\ldots,X(s_{n})\right)sssY=(Y(s1),…,Y(sn))Y=(Y(s1),…,Y(sn)){\bf{Y}} = \left(Y(s_{1}),\ldots,Y(s_{n})\right) W(s)=(X(s)Y(s))∼N(μ(s),T)W(s)=(X(s)Y(s))∼N(μ(s),T){\bf{W}}({\bf{s}}) = \left( \begin{array}{ccc}X(s) …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.