Байєсське моделювання з використанням багатоваріантного нормального з коваріатом


11

Припустимо, у вас є пояснювальна змінна де s являє собою задану координату. Ви також маєте змінну відповіді Y = ( Y ( s 1 ) , , Y ( s n ) ) . Тепер ми можемо поєднати обидві змінні як:X=(X(s1),,X(sn))sY=(Y(s1),,Y(sn))

W(s)=(X(s)Y(s))N(μ(s),T)

У цьому випадку ми просто вибираємо іТявляє собою матрицю коваріаціїяка описує залежність міжXіY. Це лише описує значенняXіYприs. Оскільки у нас є більше точок з інших місць дляXтаY, ми можемо описати більше значень W (s)наступним чином:μ(s)=(μ1μ2)TTXYXYsXYW(s)

(XY)=N((μ11μ21),TH(ϕ))

Ви помітите, що ми переставили компоненти і Y для отримання всіх X ( s i ) у стовпчик, а після цього об'єднайте всі Y ( s i ) разом. Кожна складова H ( ϕ ) i j є кореляційною функцією ρ ( s i , s j ), а T - як вище. Причина у нас коваріація T H ( ϕ )XYX(si)Y(si)H(ϕ)ijρ(si,sj)TTH(ϕ)тому що ми припускаємо , що можна відокремити матрицю коваріації , як .C(s,s)=ρ(s,s)T

Питання 1: Коли я обчислюю умовний , те, що я насправді роблю, - це генерувати набір значень Y на основі X , правильно? У мене вже є Y, тому мені було б більше цікаво передбачити нову точку y ( s 0 ) . У цьому випадку у мене повинна бути матриця H ( ϕ ), визначена якYXYXYy(s0)H(ϕ)

H(ϕ)=(H(ϕ)hhρ(0,ϕ))

в якій - вектор ρ ( s 0 - s j ; ϕ ) . Тому ми можемо побудувати вектор (без перестановки):h(ϕ)ρ(s0sj;ϕ)

W=(W(s1),,W(sn),W(s0))TN(1n+1(μ1μ2),H(ϕ)T)

І тепер я просто переставляю, щоб отримати спільний розподіл і отримати умовний p ( y ( s 0 ) x 0 , X , Y ) .(Xx(s0)Yy(s0))p(y(s0)x0,X,Y)

Це правильно?

Питання 2: Для прогнозування документ, який я читаю, вказує, що я повинен використовувати цей умовний розподіл і отримати задній розподіл p ( μ , T , ϕ x ( s 0 ) , Y , X ) , але я не впевнений, як отримати задній розподіл для параметрів. Можливо, я міг би використовувати розподіл ( X x ( s 0 )p(y(s0)x0,X,Y)p(μ,T,ϕx(s0),Y,X)що я вважаю точно таким же, якp(X,x(s0),Yμ,T,ϕ),а потім просто використовувати теорему Байєса, щоб отриматиp(μ,T,ϕX,x(s0),Y)p(X,x(s0),Yμ,(Xx(s0)Y)p(X,x(s0),Yμ,T,ϕ)p(μ,T,ϕX,x(s0),Y)p(X,x(s0),Yμ,T,ϕ)p(μ,T,ϕ)

Питання 3: В кінці підрозділу автор говорить так:

Для прогнозування у нас немає . Це не створює нових проблем, оскільки це може трактуватися як латентна змінна і вбудовуватися в x ′. Це призводить до додаткового розіграшу в межах кожної ітерації Гіббса і є тривіальним доповненням до обчислювальної задачі.X(s0)x

Що означає цей параграф?

До речі, цю процедуру можна знайти в цій статті (стор. 8), але, як бачите, мені потрібно трохи детальніше.

Дякую!


Голосували за перехід за запитом ОП .

X(s0)μ,T,ϕ
p(x(s0)X,,Y,μ,T,ϕ)
X(s0)

Відповіді:


2

(XY)N((μ11μ21),[Σ11Σ12Σ21Σ22])=N((μ11μ21),TH(ϕ))
YX
μ2+Σ21Σ111(Xμ1)
Σ22Σ21Σ111Σ21.
p(y(s0)x(s0),X,Y)(y(s0),x(s0),X,Y)

p(y(s0)x(s0),X,Y)

p(y(s0)|x(s0),X,Y)=p(y(s0)|x(s0),X,Y,μ,T,ϕ)p(μ,T,ϕ|x(s0),X,Y)dμdTdϕ,
(X,Y,x(s0))p(μ,T,ϕX,x(s0),Y)p(y(s0)x(s0),X,Y,μ,T,ϕ)

x(s0)(x(s0),y(s0))

p(x(s0),y(s0)X,Y)=p(x(s0),y(s0)X,Y,μ,T,ϕ)p(μ,T,ϕX,Y)dμdTdϕ.

При моделюванні з цього прогнозу, оскільки він не доступний в керованій формі, може бути запущений пробовідбірник Гіббса, який ітераційно імітує

  1. μX,Y,x(s0),y(s0),T,ϕ
  2. TX,Y,x(s0),y(s0),μ,ϕ
  3. ϕX,Y,x(s0),y(s0),T,μ
  4. x(s0)X,Y,y(s0),ϕ,T,μ
  5. y(s0)X,Y,x(s0),ϕ,T,μ

або об'єднайте кроки 4 і 5 в один крок

  • x(s0),y(s0)X,Y,ϕ,T,μ
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.