Марківські ланцюги проти HMM


11

Маркові ланцюги мають сенс для мене, я можу використовувати їх для моделювання імовірнісних змін стану в реальних життєвих проблемах. Потім приходить HMM. Як стверджується, ГММ більше підходять для моделювання багатьох проблем, ніж МС. Однак проблеми, про які згадують люди, є дещо складними для розуміння таких, як обробка мови. Отже, моє запитання: чи можете ви описати "реальну та просту" проблему, для якої HMM краще підходить, ніж MC? і поясніть чому? Дякую

Відповіді:


19

Розпізнавання мови не є таким складним прикладом, як ви думаєте.

Спочатку уявіть собі створення ланцюга Маркова (MC), який розпізнає текст. Ваша програма читає купу (ідеального, без помилок) тексту та обчислює стани (слова) та зміни стану (наступні слова). Здається, ти це звів. Тепер ви можете генерувати текст або задавати якийсь текст, передбачуючи наступне слово, використовуючи стани та ймовірності переходу вашого МС.

Тепер уявіть, що ви хочете використовувати ваш MC з мовою. Ви просто змусите людей читати текст, схожий на ваш MC, і ви налаштовані, правда? Ну ... За винятком того, що вони збираються вимовляти слова по-іншому: там, де написаний текст говорить "картопля", ви насправді почуєте "по-ТАЙ-тох" і "по-тах-тох" і "пу-тай" -до "і т. д. І навпаки: текст" їв "і" вісім "представляють два різні стани, але (зазвичай) вимовляються однакові.

Ваш алгоритм більше не бачить основних станів (слів), він бачить імовірнісний розподіл вимов для кожного слова. Ваш оригінальний MC прихований за вимовами, і тепер ваша модель повинна бути двошаровою.

Таким чином, ви можете змусити багато людей прочитати вголос текст, який ви використовували для свого початкового тренінгу, ви можете отримати розподіл вимов для кожного слова, а потім поєднати свою оригінальну модель з моделлю вимови, і у вас є прихована модель Маркова ( HMM).

Більшість проблем у реальному світі будуть подібними, оскільки реальний світ, як правило, шумно. Ви насправді не знаєте, в якому стані щось знаходиться. Натомість ви отримаєте різноманітні показники для кожного стану: іноді один і той же показник для різних станів ("їли" і "вісім"), а іноді різні показники для одного стану ("pu-TAY-toe" і "pah-tah-TOE"). Отже, НММ більше підходять для реальних проблем.

[Дві сторони: 1) фактичне розпізнавання мовлення працює на рівні фонеми, а не на рівні слова; 2) Я вважаю, що HMM були королем пагорба для розпізнавання мовлення, але останнім часом були знищені глибокими нейронними мережами.]


6

В основному, HMM - це маркова модель, в якій стан не є повністю спостережуваним, скоріше це спостерігається лише опосередковано через деякі галасливі спостереження. Частина моделі Маркова - простий спосіб нав'язування тимчасових залежностей у державі. Відповідно, проблеми, в яких НММ є корисними, є ті, коли держава слідує за марковською моделлю, але ви не спостерігаєте за цим станом безпосередньо.

З НММ можна зробити різні речі. Одне корисне, що ви можете зробити, це наступне - враховуючи набір галасливих спостережень до теперішнього часу, можливо, ви хочете знати, який найбільш вірогідний теперішній стан системи. Для цього слід було б належним чином поєднати структуру ланцюга Маркова із спостереженнями для висновку про стан. Аналогічно, ви можете розширити це, щоб зробити висновок про всю послідовність станів із послідовності спостережень ( це стандарт).

У науці та техніці ця модель весь час використовується. Наприклад, можливо, ви записуєте відео на просту тварину, наприклад c. елеги(черв'як), і він має лише невелику кількість дискретних поведінкових станів. З відео ви хочете позначити кожен кадр поведінковим станом тварини. З одного кадру алгоритм маркування має деяку помилку / шум. Однак є також тимчасові залежності, які можна моделювати за допомогою ланцюга Маркова ... Якщо в одному кадрі тварина знаходилось в одному стані, воно, ймовірно, буде в тому ж стані для наступного кадру (і, можливо, деякі штати дозволяють лише переходи до певних інших держав). В основному, комбінуючи ваші галасливі однокадрові спостереження зі структурою переходів (за допомогою HMM), ви можете отримати добре згладжену і краще обмежену послідовність оцінок стану.


2

HMM - модель суміші. Так само, як суміш моделі Гаусса . Причина, яку ми використовуємо, крім Ланкова Маркова, полягає в тому, що це складніше для збору шаблонів даних.

Аналогічно, якщо ми використовуємо одиночний Гаусса для моделювання змістовної змінної АБО ми використовуємо суміш Гаусса для моделювання суцільної змінної.

Я б використав суцільну змінну для демонстрації цієї ідеї: припустимо, у нас є ці дані

введіть тут опис зображення

Краще моделювати його з 2 гауссами та з різною пропорцією. Що є "еквівалентом" у дискретному випадку: ми будуємо HMM з 2 прихованими станами.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.