Коротка відповідь @bean дуже добре пояснює це. Однак я хотів би вказати на розділ 1.1 паперового відбору проб Гіббса для непосвячених Ресниками та Хардісті, який розглядає питання більш глибоко. Я пишу кілька рядків з цього документу з дуже незначними модифікаціями (ця відповідь повторює кілька речей, які ОП знає заради повноти)
MLE
Формально MLE виробляє вибір (параметр моделі), який, найімовірніше, генерує спостережувані дані.
КАРТА
Оцінений ПДЧ - це вибір, який, швидше за все, з огляду на спостережувані дані. На відміну від MLE, оцінка MAP застосовує правило Байєса, так що наша оцінка може враховувати попередні знання про те, що ми очікуємо, щоб наші параметри були у вигляді попереднього розподілу ймовірностей.
Виловити
Оцінки MLE та MAP дають нам найкращу оцінку відповідно до їх відповідних визначень "кращих". Але зауважте, що використання однієї оцінки - чи то MLE чи MAP - викидає інформацію. В принципі, параметр може мати будь-яке значення (від домену); може ми не отримаємо кращих оцінок, якби врахували весь розподіл, а не лише одне оцінене значення параметра? Якщо ми це зробимо, ми використовуємо всю інформацію про параметр, який ми можемо витягнути зі спостережуваних даних, X.
Тож з цим уловом ми можемо захотіти використовувати жоден із них. Крім того, як уже згадували боб і Тім, якщо вам доведеться скористатися одним із них, використовуйте MAP, якщо у вас був попередній. Якщо у вас немає пріорів, MAP зменшується до MLE. Спрямовані пріорі допоможуть вирішити проблему аналітичним способом, інакше використовувати Gibbs Sampling.