Чим відрізняється (динамічна) мережа Bayes від HMM?


14

Я читав, що ГММ, Фільтри частинок та Фільтри Кальмана - це особливі випадки динамічних мереж Байєса. Однак я знаю лише HMM і не бачу різниці в динамічних мережах Bayes.

Може хтось, будь ласка, пояснить?

Було б добре, якби ваша відповідь могла бути подібною до наступної, але для Bayes Networks:

Приховані Маркові моделі

Модель прихованого Маркова (HMM) - це 5-кортеж :λ=(S,O,A,B,Π)

  • S : Набір станів (наприклад, "початок фонеми", "середина фонеми", "кінець фонеми")
  • O : Набір можливих спостережень (аудіосигнали)
  • ( a i j ) i jAR|S|×|S| : стохастична матриця, яка дає ймовірності для отримання стану до стану .(aij)ij
  • BR|S|×|O| : стохастична матриця, яка дає ймовірності для отримання стану до спостереження .k l(bkl)kl
  • ΠR|S| : Початковий розподіл розпочнеться в одному з станів.

Зазвичай він відображається як спрямований графік, де кожному вузлу відповідає один стан а ймовірності переходу позначаються на ребрах.sS

Приховані Маркові моделі називають «прихованими», оскільки поточний стан приховано. Алгоритми повинні вгадати це з спостережень та самої моделі. Їх називають "Марковим", бо для наступного стану має значення лише поточний стан.

Для HMM ви даєте фіксовану топологію (кількість станів, можливі ребра). Тоді є 3 можливих завдання

  • Оцінка : з урахуванням HMM , наскільки ймовірно отримати спостереження (алгоритм вперед)o 1 , , o tλo1,,ot
  • Розшифровка : заданий HMM та спостереження , яка найбільш вірогідна послідовність станів (алгоритм Вітербі)o 1 , , o t s 1 , , s tλo1,,ots1,,st
  • Навчання : вивчіть : алгоритм Баума-Вельча , що є особливим випадком максимізації очікувань.A,B,Π

Мережі Байєса

Мережі Байєса - це спрямовані ациклічні графіки (DAG) . Вузли представляють випадкові величини . Для кожного існує розподіл ймовірностей, який обумовлений батьками :X X X XG=(X,E)XXXX

P(X|parents(X))

Здається, що (уточнюйте) два завдання:

  • Висновок : Враховуючи деякі змінні, отримайте найбільш ймовірні значення інших змінних. Точний висновок є важким для NP. Приблизно ви можете використовувати MCMC.
  • Навчання : те, як ви засвоюєте ці розподіли, залежить від конкретної проблеми ( джерело ):

    • відома структура, повністю дотримується: максимальна оцінка ймовірності (MLE)
    • відома структура, частково помітна: Максимізація очікувань (ЕМ) або Марківський ланцюг Монте-Карло (MCMC)
    • невідома структура, повністю помітна: пошук через модельний простір
    • невідома структура, частково помітна: EM + пошук через простір моделі

Динамічні мережі Байєса

Я думаю, що динамічні мережі Байєса (DBN) також спрямовані на ймовірнісні графічні моделі. Здається, що мінливість походить від зміни мережі з часом. Однак мені здається, що це еквівалентно лише копіюванню однієї і тієї ж мережі та підключенню кожного вузла в момент до кожного відповідного вузла в момент . Це так?t + 1tt+1


2
1. Ви також можете вивчити топологію HMM. 2. Виконуючи висновки з BN, окрім запиту про максимальну оцінку ймовірності, ви також можете взяти вибірку з розподілів, оцінити ймовірності або зробити все, що вам дозволяє теорія ймовірностей. 3. DBN - це просто BN, скопійований з часом, з деякими (не обов'язково всіми) вузлами, прикованими з минулого в майбутнє. У цьому сенсі HMM - це проста DBN, що має лише два вузли у кожному часовому відрізку та один із вузлів, зв'язаних у часі.
КТ.

Я запитав когось про це, і вони сказали: "ГММ - це лише особливі випадки динамічних мереж Байєса, кожен раз, коли фрагмент містить одну приховану змінну, залежно від попередньої, щоб дати ланцюжок Маркова, і одне спостереження, залежне від кожної прихованої змінної. DBNs може мати будь-яку структуру, яка розвивається з часом ".
ашли

Відповіді:


1

З аналогічного питання перехресної перевірки випливає відповідь @jerad :

HMM не є еквівалентними DBN, скоріше вони є окремим випадком DBN, в якому весь стан світу представлений єдиною змінною прихованого стану. Інші моделі в рамках DBN узагальнюють базовий HMM, дозволяючи отримати більш приховані змінні стану (див. Другий документ вище для багатьох різновидів).

Нарешті, ні, DBN не завжди є дискретними. Наприклад, лінійні моделі Гаусса (Фільтри Кальмана) можна розглядати як НММ безперервного значення, які часто використовуються для відстеження об'єктів у просторі.

Я рекомендую ознайомитись з цими двома чудовими оглядовими документами:

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.