Я намагаюся навчитися використовувати Маркові випадкові поля для сегментації регіонів зображення. Я не розумію, які параметри в MRF чи чому максимізація очікування, яку я виконую, не вдається іноді сходитися до рішення.
Починаючи з теореми Байєса, у мене , де - значення сірого масштабу пікселя, а - мітка класу. Я вирішив використовувати розподіл Гаусса для , тоді як моделюється за допомогою MRF.y x p ( y | x ) p ( x )
Я використовую потенційну функцію для MRF, яка має як парні клікові потенціали, так і значення потенціалу для мітки класу класифікованого пікселя. Значення потенціалу одного пікселя - це деяка константа що залежить від мітки класу . Подвійні потенційні функції оцінюються для 4-підключених сусідів і повертають позитивне якщо сусід має ту саму мітку класу, що і цей піксель, і якщо мітки відрізняються.x β - β
У точці максимізації очікування, де мені потрібно знайти значення та які максимізують очікуване значення ймовірності журналу, я застосував числовий метод оптимізації (спробував градієнт спряженого, BFGS, метод Пауелла), але завжди виявило б, що значення стане негативним, s різко збільшиться, а ітерація або дві пізніше все зображення буде присвоєно лише одній мітці (тло: призначення міток класу за заданими параметрами MRF робилося за допомогою ICM) . Якби я видалив альфа-параметри, тобто лише використовував парні клікові потенціали, тоді максимізація очікування спрацювала б чудово.β β α
Поясніть, будь ласка, яке призначення алфавітів для кожного класу? Я думав, що вони будуть пов'язані з кількістю того класу, який присутній на зображенні, але, здається, ні. Після того, як я змусив ДПС працювати лише з парними потенціалами, я порівняв його з прямолінійною моделлю суміші Гаусса і виявив, що вони дають майже однакові результати. Я очікував, що парні потенціали трохи згладять класи, але цього не сталося. Будь ласка, порадьте, де я пішов не так.