Я читав, що ГММ, Фільтри частинок та Фільтри Кальмана - це особливі випадки динамічних мереж Байєса. Однак я знаю лише HMM і не бачу різниці в динамічних мережах Bayes.
Може хтось, будь ласка, пояснить?
Було б добре, якби ваша відповідь могла бути подібною до наступної, але для Bayes Networks:
Приховані Маркові моделі
Модель прихованого Маркова (HMM) - це 5-кортеж :
- : Набір станів (наприклад, "початок фонеми", "середина фонеми", "кінець фонеми")
- : Набір можливих спостережень (аудіосигнали)
- ( a i j ) i j : стохастична матриця, яка дає ймовірності для отримання стану до стану .
- : стохастична матриця, яка дає ймовірності для отримання стану до спостереження .k l
- : Початковий розподіл розпочнеться в одному з станів.
Зазвичай він відображається як спрямований графік, де кожному вузлу відповідає один стан а ймовірності переходу позначаються на ребрах.
Приховані Маркові моделі називають «прихованими», оскільки поточний стан приховано. Алгоритми повинні вгадати це з спостережень та самої моделі. Їх називають "Марковим", бо для наступного стану має значення лише поточний стан.
Для HMM ви даєте фіксовану топологію (кількість станів, можливі ребра). Тоді є 3 можливих завдання
- Оцінка : з урахуванням HMM , наскільки ймовірно отримати спостереження (алгоритм вперед)o 1 , … , o t
- Розшифровка : заданий HMM та спостереження , яка найбільш вірогідна послідовність станів (алгоритм Вітербі)o 1 , … , o t s 1 , … , s t
- Навчання : вивчіть : алгоритм Баума-Вельча , що є особливим випадком максимізації очікувань.
Мережі Байєса
Мережі Байєса - це спрямовані ациклічні графіки (DAG) . Вузли представляють випадкові величини . Для кожного існує розподіл ймовірностей, який обумовлений батьками :X ∈ X X X
Здається, що (уточнюйте) два завдання:
- Висновок : Враховуючи деякі змінні, отримайте найбільш ймовірні значення інших змінних. Точний висновок є важким для NP. Приблизно ви можете використовувати MCMC.
Навчання : те, як ви засвоюєте ці розподіли, залежить від конкретної проблеми ( джерело ):
- відома структура, повністю дотримується: максимальна оцінка ймовірності (MLE)
- відома структура, частково помітна: Максимізація очікувань (ЕМ) або Марківський ланцюг Монте-Карло (MCMC)
- невідома структура, повністю помітна: пошук через модельний простір
- невідома структура, частково помітна: EM + пошук через простір моделі
Динамічні мережі Байєса
Я думаю, що динамічні мережі Байєса (DBN) також спрямовані на ймовірнісні графічні моделі. Здається, що мінливість походить від зміни мережі з часом. Однак мені здається, що це еквівалентно лише копіюванню однієї і тієї ж мережі та підключенню кожного вузла в момент до кожного відповідного вузла в момент . Це так?t + 1