Навчання основного випадкового поля Маркова для класифікації пікселів на зображенні


16

Я намагаюся навчитися використовувати Маркові випадкові поля для сегментації регіонів зображення. Я не розумію, які параметри в MRF чи чому максимізація очікування, яку я виконую, не вдається іноді сходитися до рішення.

Починаючи з теореми Байєса, у мене , де - значення сірого масштабу пікселя, а - мітка класу. Я вирішив використовувати розподіл Гаусса для , тоді як моделюється за допомогою MRF.y x p ( y | x ) p ( x )p(x|y)=p(y|x)p(x)/p(y)yxp(y|x)p(x)

Я використовую потенційну функцію для MRF, яка має як парні клікові потенціали, так і значення потенціалу для мітки класу класифікованого пікселя. Значення потенціалу одного пікселя - це деяка константа що залежить від мітки класу . Подвійні потенційні функції оцінюються для 4-підключених сусідів і повертають позитивне якщо сусід має ту саму мітку класу, що і цей піксель, і якщо мітки відрізняються.x β - βαxββ

У точці максимізації очікування, де мені потрібно знайти значення та які максимізують очікуване значення ймовірності журналу, я застосував числовий метод оптимізації (спробував градієнт спряженого, BFGS, метод Пауелла), але завжди виявило б, що значення стане негативним, s різко збільшиться, а ітерація або дві пізніше все зображення буде присвоєно лише одній мітці (тло: призначення міток класу за заданими параметрами MRF робилося за допомогою ICM) . Якби я видалив альфа-параметри, тобто лише використовував парні клікові потенціали, тоді максимізація очікування спрацювала б чудово.β β αα(x)ββα

Поясніть, будь ласка, яке призначення алфавітів для кожного класу? Я думав, що вони будуть пов'язані з кількістю того класу, який присутній на зображенні, але, здається, ні. Після того, як я змусив ДПС працювати лише з парними потенціалами, я порівняв його з прямолінійною моделлю суміші Гаусса і виявив, що вони дають майже однакові результати. Я очікував, що парні потенціали трохи згладять класи, але цього не сталося. Будь ласка, порадьте, де я пішов не так.


Цікаво, чому ви вибрали непряму модель графа?

У моєму додатку значення сірого масштабу підрахунку пікселів та сусідніх пікселів мають більшу ймовірність однакової мітки класу, але немає жодних причин використовувати іншу бета-версію для кожної парної кліки. Я сподіваюся, що я правильно зрозумів ваше питання.
чіпси

1
Здається, що постійні альфа служать для моделювання попереднього розподілу на етикетках. Як ви припускаєте, правильні альфа-параметри, можливо, накладуть ті мітки, які зустрічаються частіше у навчальному наборі. Якщо ваша модель працює без них, чому б вам просто не скинути їх з моделі? Ваш опис недостатньо дослідний, щоб відповісти, чому альфа виросте і зіпсує все, але вам, ймовірно, потрібна регуляризація. Спробуйте додати до моделі гауссовий пріоритет на альфа, тобто додавайте до журналу заднього, це, ймовірно, запобігає надмірному розміщенню. λα2
Роман Шаповалов

Що незрозуміло у вашому запитанні: 1) Чи розкладається ваша ймовірність p (y | x) на пікселі, тому ви використовуєте 1D-гаусса для кожного? 2) Яку точну мету ви оптимізуєте в ЕМ (ви згадали ймовірність журналу, але ви використовуєте MRF для моделювання раніше)? 3) Ви визначаєте потенціали в логарифмічній області? Чи означає збільшення бета-версії означає збільшення P (x), або енергії, яка є -log P (x), або негативною енергією? 4) Чи вдається вам насправді зменшити ціль ЕМ, встановивши такі вироджені альфа, чи оптимізація не вдається?
Роман Шаповалов

А як щодо розповсюдження вірогідних схем?
wolfsatthedoor

Відповіді:


1

Діагностика

Це звучить як проблема ініціалізації.

Модель MRF, яку ви використовуєте, не випукла і, як така, має кілька локальних мінімумів. Наскільки я знаю, усі існуючі методи оптимізації чутливі до ініціалізації, це означає, що на якість остаточного рішення сильно впливає те, з чого ви починаєте процедуру оптимізації.

Пропоноване рішення

Я пропоную спробувати різні стратегії для ініціалізації моделі. Наприклад, одна стратегія, яка мені спадає на думку, полягає в наступному:

  1. навчіть модель для спочатку і ігноруйте попередній термін наразі; наприклад, fix p ( x ) має бути рівномірним, наприклад, встановивши α = β = 0 і утримуючи їх фіксованими . Якщо ви хочете бути більш фантазійними, ви можете зафіксувати p ( x ) на взаємному розподілі, який представляє відносні частоти міток у навчальному наборі. Це можна зробити, встановивши значення α відповідно.p(y|x) p(x)α=β=0 p(x)α

  2. розморожувати одинарні та парні терміни в моделі ДПС; тобто нехай ваш оптимізатор змінить значення і β .αβ

Запропонована ініціалізація ні в якому разі не є найкращим способом ініціалізації оптимізації, а, скоріше, лише одним із можливих варіантів.

λα||α||2+λβ||β||2λαλβ

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.