У цьому популярному питанні відповідь з високою оцінкою робить MLE та Baum Welch відокремленими у підході до HMM.
Для тренувальної задачі ми можемо використовувати наступні 3 алгоритми: MLE (максимальна оцінка ймовірності), навчання Вітербі (НЕ плутати з декодуванням Вітербі), Baum Welch = алгоритм вперед-назад.
АЛЕ у Вікіпедії , йдеться
Алгоритм Баума-Уелча використовує добре відомий алгоритм ЕМ для пошуку максимальної оцінки ймовірності параметрів
Отже, яка взаємозв'язок між алгоритмом MLE та Baum – Welch?
Моя спроба: Завдання алгоритму Баума – Велча - максимальна ймовірність, але він використовує спеціалізований алгоритм (ЕМ) для вирішення оптимізації. Ми все ще можемо максимально підвищити ймовірність, використовуючи інші методи, такі як градієнт гідний. Ось чому у відповіді роблять два алгоритми відокремленими.
Я маю рацію і чи може хтось допомогти мені уточнити?