Який зв’язок між ланцюгом Маркова та ланцюгом Маркова monte carlo


15

Я намагаюся зрозуміти ланцюги Маркова за допомогою SAS. Я розумію, що процес Маркова - це той, де майбутній стан залежить лише від поточного стану, а не від минулого стану, і є матриця переходу, яка фіксує ймовірність переходу з одного стану в інший.

Але потім я натрапив на цей термін: Марківський ланцюг Монте-Карло. Що я хочу знати, - чи ланцюг Маркова Монте-Карло так чи інакше пов'язаний з процесом Маркова, який я описав вище?

Відповіді:


9

Ну, так, існує зв'язок між двома термінами, тому що малюнки з MCMC утворюють ланцюг Маркова. С Гельман, Байєсівський аналіз даних (3-е видання), с. 265:

Моделювання ланцюга Маркова (також його називають ланцюгом Маркова Монте-Карло або MCMC) - це загальний метод, заснований на виведенні значень з відповідних розподілів, а потім виправляючи ці малюнки, щоб краще наблизити цільовий задній розподіл, . Вибірка проводиться послідовно, з розподілом вибіркових малюнків залежно від останнього отриманого значення; отже, креслення утворюють марківський ланцюг.θp(θ|y)


Ум нормально, але чому мені потрібно малювати випадкові вибірки для марковського процесу, існує стільки інших процесів, як нормальний, бернуллі, можливість тощо.
Віктор,

2
@Victor Я думаю, ви втратили зір із випадку використання MCMC. Ми використовуємо MCMC в баєсівській статистиці, коли немає аналітичної форми заднього розподілу.
Sycorax каже, що повернеться до Моніки

3
+1 Статистика Баєса - це, мабуть, найбільш очевидне застосування MCMC (де цільовий розподіл - спільний задній), але не єдиний можливий.
Glen_b -Встановіть Моніку

18

Зв'язок між обома поняттями полягає в тому, що методи ланцюга Маркова Монте-Карло (він же MCMC) покладаються на теорію ланцюгів Маркова для отримання моделювання та наближень Монте-Карло із складного розподілу цілей .π

X1,,XNXi{Xi1,,X1}Xi1

Xi=f(Xi1,ϵi)
fπϵiXiπi

Найпростішим прикладом алгоритму MCMC є пробовідбірник фрагментів : при ітерації i цього алгоритму зробіть

  1. ϵi1U(0,1)
  2. XiU({x;π(x)ϵi1π(Xi1)})ϵi2

N(0,1)

  1. ϵi1U(0,1)
  2. XiU({x;x22log(2πϵi1})Xi=±ϵi2{2log(2πϵi1)φ(Xi1)}1/2ϵi2U(0,1)

або в R

T=1e4
x=y=runif(T) #random initial value
for (t in 2:T){
  epsilon=runif(2)#uniform white noise 
  y[t]=epsilon[1]*dnorm(x[t-1])#vertical move       
  x[t]=sample(c(-1,1),1)*epsilon[2]*sqrt(-2*#Markov move from
        log(sqrt(2*pi)*y[t]))}#x[t-1] to x[t]

N(0,1)(Xi)вгорі: гістограма 10 of ітерацій пробовідбірника і нормального розміру N (0,1);  внизу: послідовність $ (X_i) $

(Xi,ϵi1π(Xi))

curve(dnorm,-3,3,lwd=2,col="sienna",ylab="")
for (t in (T-100):T){
lines(rep(x[t-1],2),c(y[t-1],y[t]),col="steelblue");
lines(x[(t-1):t],rep(y[t],2),col="steelblue")}

що слідує за вертикальними та горизонтальними рухами ланцюга Маркова під кривою цільової щільності.100 останніх рухів пробовідбірника

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.