Імовірнісна графічна модель (PGM) являє собою графік , формалізм для моделювання компактно розподілу спільних ймовірностей і (в) Залежність відносини на безлічі випадкових величин. PGM називається байєсівською мережею, коли основний графік спрямований, а мережа Маркова / Маркове випадкове полеколи основний графік непрямий. Взагалі кажучи, ви використовуєте перше для моделювання ймовірнісного впливу між змінними, які мають чітку спрямованість, інакше ви використовуєте останню; в обох версіях PGM, відсутність ребер у пов'язаних з ними графіках являють собою умовні незалежності в кодованих розподілах, хоча їх точна семантика відрізняється. "Марків" в "Марковій мережі" відноситься до загального поняття умовної незалежності, кодованого PGM, що набору випадкових змінних , незалежних від інших даного деякого набору "важливих" змінних (технічна назва - Марків ковдра ), тобто .xAxCxBp(xA|xB,xC)=p(xA|xB)
Марковський процес є будь-яким випадковим процесом , що задовольняє Маркова . Тут акцент робиться на сукупності (скалярних) випадкових змінних як правило, їх вважають індексованими часом, які задовольняють певний вид умовної незалежності, тобто "майбутнє не залежить від минулого з огляду на теперішній час ", грубо кажучи, . Це особливий випадок поняття "Марков", визначеного PGM: просто візьміть множину , і візьміть як будь-який підмножина і викликати попереднє твердження{Xt}X1,X2,X3,...p(xt+1|xt,xt−1,...,x1)=p(xt+1|xt)A={t+1},B={t}C{t−1,t−2,...,1}p(xA|xB,xC)=p(xA|xB) . З цього ми бачимо, що маркова ковдра будь-якої змінної є її попередником .Xt+1Xt
Тому ви можете представити марківський процес з байєсівською мережею як лінійну ланцюг, індексовану часом (для простоти ми розглянемо лише випадок дискретного часу / стану тут; малюнок із книги PRML Єпископа):
Цей вид байєсівської мережі відомий як динамічна байєсівська мережа . Оскільки це байєсівська мережа (отже, PGM), для ймовірнісного висновку можна застосувати стандартні алгоритми PGM (наприклад, алгоритм суми-добутку, з яких рівняння Чапмана – Колмогорова являють собою окремий випадок) та оцінки параметрів (наприклад, максимальна ймовірність, яка кипить до простого підрахунку) по ланцюгу. Прикладом цього є HMM та n-грамова модель мови.
Часто ви бачите схему із зображенням ланцюга Маркова, як цього
Це не PGM, тому що вузли - це не випадкові величини, а елементи простору стану ланцюга; ребра відповідають (ненульовим) перехідним ймовірностям між двома послідовними станами. Ви також можете вважати цей графік як опис CPT (таблиця умовної ймовірності) ланцюга PGM. Цей ланцюг Маркова лише кодує стан світу при кожній марці як єдину випадкову змінну ( Mood ); що робити, якщо ми хочемо зафіксувати інші взаємодіючі аспекти світу (наприклад, здоров'я та доходи якоїсь людини) та розглядати як вектор випадкових зміннихp(Xt|Xt−1)Xt(X(1)t,...X(D)t)? Тут можуть допомогти PGM (зокрема, динамічні байєсівські мережі). Ми можемо моделювати складні розподіли для
використовуючи умовну байєсівську мережу, яку зазвичай називають 2TBN (2-часовий зріз байєсівської мережі), який можна розглядати як вигадливішу версію простої ланцюгової байєсівської мережі.p(X(1)t,...X(D)t|X(1)t−1,...X(D)t−1)
TL; DR : байєсівська мережа - це різновид PGM (імовірнісна графічна модель), яка використовує спрямований (ациклічний) графік для подання факторизованого розподілу ймовірностей та пов'язаної з ним умовної незалежності над набором змінних. Марковський процес - це стохастичний процес (типово його розглядають як сукупність випадкових змінних) із властивістю "майбутнє не залежне від минулого з урахуванням сучасності"; акцент робиться більше на вивченні еволюції єдиної "шаблонної" випадкової змінної протягом часу (часто як ). A (скалярний) процес Маркова визначає питому властивість умовної незалежностіXtt→∞p(xt+1|xt,xt−1,...,x1)=p(xt+1|xt)і тому їх можна тривіально представити ланцюговою байєсівською мережею, тоді як динамічні байєсівські мережі можуть використовувати повну уявну силу PGM для моделювання взаємодій між декількома випадковими змінними (тобто випадковими векторами) протягом часу; велике посилання на це - книга PGM Дафни Коллер, глава 6.