Відповіді:
Алгоритм ЕМ (максимізація очікування) - це загальний алгоритм для оптимізації функції ймовірності у випадках, коли модель задана ймовірнісно з точки зору спостережуваного та неспостережуваного (латентного) компонента. HMM (приховані моделі Маркова) - це моделі такої форми, оскільки вони мають незастережений компонент, приховані стани, а фактичні спостереження часто називають викидами в термінології HMM. Отже, НММ утворюють клас моделей, для яких алгоритм ЕМ може бути корисним.
У генералі, якщо модель складається з двох компонентів , для яких ми вважаємо, що приймаємо значення у кінцевому просторі для простоти, а якщо ймовірнісна специфікація моделі складається із ймовірностей спільної точки , параметрезованих , то ймовірність того, при спостереженні тільки є
EM-алгоритм має найбільш сенс, якщо два етапи, описані вище, можуть бути здійснені обчислювально ефективним способом, наприклад, коли у нас є вирази закритої форми для умовного очікування та максимізації.
Історично склалося, що загальний ЕМ-алгоритм приписується Демпстеру, Лаарду та Рубіну , які довели у своєму документі 1977 року, серед іншого, що алгоритм призводить до послідовності параметрів з монотонно зростаючими значеннями ймовірності. Вони також ввели термін "EM-алгоритм". Цікаво, що EM-алгоритм для HMM був описаний вже в 1970 році Baum et al. , а також його часто називають алгоритмом Баума-Велча в літературі HMM (я не знаю точно, що робив Уелч ...).
Максимізація очікувань - це ітеративний метод, який використовується для статистичного висновку на різних різних генеративних статистичних моделях, наприклад, на суміші гауссів та інших моделей байєсівської мережі. Єдиний зв'язок полягає в тому, що МММ - це також байєсівські мережі. Але, мабуть, не використовуватимуть ЕМ для НММ, оскільки існує точний алгоритм для висновку в НММ, який називається алгоритмом Вітербі. Тож хоч можна було б використовувати ЕМ для здійснення висновку на HMM, ви цього не зробите, тому що немає підстав для цього.
У HMM ми намагаємось оцінити в основному три параметри:
Початкові ймовірності стану. Це вектор з елементами , де - кількість станів.
Матриця переходу. Це квадратна матриця розміру .
Умовні ймовірності спостереження за предметом, обумовленими деяким станом. Це також матриця розміру , де - кількість спостережень.
Тепер частина ЕМ настає, коли ви намагаєтесь оцінити величини / параметри, зазначені вище. Починаючи з деякої випадкової здогадки, ймовірність спостережень оцінюється і параметри ітераційно коригуються, поки ми не отримаємо максимальну ймовірність. Отже, через HMM ми моделюємо певний процес, і для цього нам потрібно ввести деякі параметри. Для оцінки параметрів подається ЕМ.
Це дуже коротка відповідь. Реалізація ЕМ потребує ряду інших підпроблем, які потрібно вирішити за допомогою ряду методик. Для глибокого розуміння настійно рекомендується класичний підручник Rabiner.