1-й приклад
Типовий випадок - теги в контексті обробки природних мов. Дивіться тут для детального пояснення. Ідея полягає в основному в змозі визначити лексичну категорію слова в реченні (це іменник, прикметник, ...). Основна ідея полягає в тому, що у вас є модель вашої мови, що складається з прихованої моделі маркова ( HMM ). У цій моделі приховані стани відповідають лексичним категоріям, а спостережувані стани власне словам.
Відповідна графічна модель має форму,
де являє собою послідовність слів у реченні, а х = ( х 1 , . . . , х N ) являє собою послідовність тегів.у =(у1 , . . . , уN)х =(х1,..., хN)
Після навчання, мета - знайти правильну послідовність лексичних категорій, які відповідають заданому вхідному реченню. Це сформульовано як пошук послідовності тегів, які є найбільш сумісними / найімовірніше, були сформовані мовною моделлю, тобто
f( у) = a r g m a xx ∈Yp ( x ) p ( y | x )
2-й приклад
Власне, кращим прикладом може бути регресія. Не тільки тому, що це легше зрозуміти, а й тому, що чіткі розбіжності між максимальною ймовірністю (ML) та максимальною післярічкою (MAP) зрозумілими.
т
у( x ; w ) = ∑iшiϕi( х )
ϕ ( x )ш
t = y( x ; w ) + ϵ
p ( t | w ) = N( т | у( х ; ш ) )
Е( w ) = 12∑н( т. звн- шТϕ ( хн) )2
що дає відоме рішення найменш квадратних помилок. Тепер, ML чутливий до шуму, і за певних обставин не стабільний. MAP дозволяє підібрати кращі рішення, встановлюючи обмеження на ваги. Наприклад, типовим випадком є регресія хребта, де ви вимагаєте, щоб ваги мали якомога меншу норму,
Е( w ) = 12∑н( т. звн- шТϕ ( хн) )2+ λ ∑кш2к
N( w | 0 , λ- 1I )
w = a r g m i nшp ( w ; λ ) p ( t | w ; ϕ )
Зауважте, що у MAP ваги є не параметрами, як у ML, а випадковими змінними. Тим не менш, і ML та MAP - це точкові оцінки (вони повертають оптимальний набір ваг, а не розподіл оптимальних ваг).