Довідка в очікуванні Максимізація з паперу: як включити попередній розподіл?


9

Питання грунтується на роботі під назвою: Реконструкція зображення в дифузній оптичній томографії за допомогою зв'язаної моделі радіаційного транспорту-дифузії.

Посилання для завантаження

Автори застосовують алгоритм ЕМ з регуляризацією розрідженості невідомого вектораl1μдля оцінки пікселів зображення. Модель задана

(1)y=Aμ+e
Оцінка наведена у рівнянні (8) як

(2)μ^=argmaxlnp(y|μ)+γlnp(μ)

У моєму випадку я вважав μ бути фільтром довжини L і μ є L×1вектори, що представляють фільтри. Тому,

Модель можна переписати як

(3)y(n)=μTa(n)+v(n)

Питання: Постановка проблеми: μ(n) (n по 1) - незафіксований вхід і {e(n)} - нульове значення з невідомою дисперсією σe2аддитивний шум. Рішення MLE базуватиметься на максимізації очікувань (EM).

У статті Eq (19) є функція - повна ймовірність журналу, але для мого випадку я не розумію, як я можу включити розподіл у повному виразі вірогідності журналу. AA,μ

Якою буде повна ймовірність використання журналу з використанням EM включаючи попередній розподіл?y


Ви дійсно хочете, щоб вірогідність журналу була, або ви хочете, замість цього, журнал задній? Лише останній буде включати лаплакійський поперед. Перший можна просто отримати, взявши журнал вірогідності, який, здається, ви вже виписали

Мені потрібно два вирази - (1) Одне, яке буде використано для пошуку інформаційної матриці Фішера, та (2) інше - це pdf повного набору даних, що включає приховану змінну Z та спостережень, яка є спільною щільністю ймовірності спостережуваних даних як функції параметра θ. Написаний мною pdf застосовується до моделі МА для сліпої оцінкиθ. Але, як це буде відрізнятися обмеження обмеженості = Laplacian до того, щоб можна було знайти матрицю інформації Фішера з часткових похідних log-ймовірності.
СКМ

@ Xi'an: Я не розумію, як підключити 3 pdf, які включають попереднє у формулювання вірогідності журналу. Я можу розробити максимізацію, яка полягає в тому, щоб взяти часткову похідну і прирівняти до нуля. Скажіть, будь ласка, відповідь із явно виписаним виразом ймовірності. Це дійсно допоможе
SKM

Відповіді:


3

Якщо ми розглянемо ціль як

argmaxθL(θ|x)π(θ)=argmaxθlogL(θ|x)+logπ(θ)
представлення на основі ЕМ - для довільного , через розкладання або яке працює для довільного значення (оскільки в lhs немає жодного ) і, отже, також працює для будь-яких очікувань у : для будь-якого умовного розподілу заданого , наприклад
logL(θ|x)=E[logL(θ|x,Z)|x,θ]E[logq(Z|x,θ)|x,θ]
θ
q(z|x,θ)=f(x,z|θ)/g(x|θ)
g(x|θ)=f(x,z|θ)/q(z|x,θ)
zZ
logg(x|θ)=logf(x,z|θ)logq(z|x,θ)=E[logf(x,Z|θ)logq(Z|x,θ)|x]
ZX=xq(z|x,θ) . Тому якщо ми максимізуємо в з рішенням нас є а стандартними аргументами ЕМ. Тому і використовуючи в якості E кроку ціль θ
E[logL(θ|x,Z)|x,θ]+logπ(θ)
θ1
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
E[logq(Z|x,θ)|x,θ]E[logq(Z|x,θ1)|x,θ]
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
E[logL(θ|x,Z)|x,θ]+logπ(θ)
призводить до збільшення заднього на кожному кроці М, що означає, що модифікований алгоритм ЕМ переходить до локальної MAP.

Дякую за вашу відповідь Чи являє собою pdf ? Чи можете ви, будь ласка, чому в очікуванні рівняння, згаданого у другому рядку, віднімаються 2 очікування, коли Буде віднято? q()ZE[logq(.)]
СКМ

Я додав деякі пояснення, але ви повинні перевірити в підручнику походження алгоритму ЕМ, оскільки це стандартний матеріал.
Сіань

1

Я не думаю, що показ монотонного зростаючого log-posterior (або ймовірності журналу для MLE) є достатнім для показу конвергенції до стаціонарної точки оцінки MAP (або MLE). Наприклад, прирости можуть стати довільно невеликими. У відомому документі Ву 1983 р. Достатньою умовою наближення до стаціонарної точки ЕМ є диференційованість обох аргументів нижньої межі функції.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.