Поясніть, будь ласка, різницю байєсівської оцінки та максимальної оцінки ймовірності?
Поясніть, будь ласка, різницю байєсівської оцінки та максимальної оцінки ймовірності?
Відповіді:
Це дуже широке запитання, і моя відповідь тут лише починає трохи дряпати поверхню. Я буду використовувати правило Байєса для пояснення понять.
Припустимо , що безліч параметрів розподілу ймовірностей, , найкраще пояснює набір даних D . Ми можемо побажати оцінити параметри θ за допомогою Правила Байєса:
Пояснення випливають:
Максимальна оцінка ймовірності
Іншими словами, у рівнянні вище MLE трактує термін як константа і НЕ дозволяє нам вводити наші попередні переконання,p(θ), про ймовірні значення дляθв розрахунках оцінки.
Байєсова оцінка
Байєсова оцінка, навпаки, повністю обчислює (або часом наближає) задній розподіл . Байєсівський умовивід трактує θ як випадкову величину. За байєсівською оцінкою, ми вкладаємо функції щільності ймовірності та отримуємо функції щільності ймовірності, а не єдину точку, як у MLE.
Це призводить до поняття "кон'югованих пріорів" в байєсівській оцінці. Для заданої функції ймовірності, якщо у нас є вибір щодо того, як ми висловлюємо свої попередні переконання, ми повинні використовувати ту форму, яка дозволяє нам здійснити інтеграцію, показану вище. Ідея кон'югованих пріорів та те, як вони практично реалізовані, досить добре пояснена в цьому пості в COOlSerdash.
Я думаю, ви говорите про оцінку точки, як про параметричні умовиводи, щоб ми могли припустити параметричну модель ймовірності для механізму генерування даних, але фактичне значення параметра невідоме.
Максимальна оцінка ймовірності стосується використання моделі ймовірностей для даних та оптимізації функції спільної ймовірності спостережуваних даних за одним або кількома параметрами. Тому видно, що оцінені параметри найбільш узгоджуються із спостережуваними даними щодо будь-якого іншого параметра в просторі параметрів. Зауважте, такі функції ймовірності не обов'язково розглядаються як "умовні" параметри, оскільки параметри не є випадковими змінними, отже, дещо складніше уявити ймовірність різних результатів, порівнюючи дві різні параметризації. Виявляється, це філософсько обгрунтований підхід.
Оцінка баєса трохи загальніша, оскільки ми не обов'язково максимізуємо байєсівський аналог вірогідності (задня щільність). Однак аналогічний тип оцінки (або оцінка заднього режиму) розглядається як максимізація ймовірності заднього параметра, що обумовлена даними. Зазвичай оцінки Байєса, отримані таким чином, поводяться майже так само, як і оцінки ML. Ключова відмінність полягає в тому, що висновок Байєса дозволяє чітко визначити спосіб включення попередньої інформації.
Також «Епічна історія максимальної вірогідності робить для ілюмінаційного прочитання
Байєсівська оцінка - байєсівський висновок, тоді як MLE - це тип частістських методів виводу.
Альтернативу MLE в байєсівському висновку називають максимальною післяорієнтованою оцінкою (MAP для коротких), а насправді MLE - це особливий випадок MAP, коли попередній рівень є рівномірним, як ми бачимо вище та як зазначено у Вікіпедії :
З точки зору байєсівського висновку, MLE - це особливий випадок максимальної післяорієнтованої оцінки (MAP), який передбачає рівномірний попередній розподіл параметрів.
Для детальної інформації див. Цю дивовижну статтю: MLE vs MAP: зв'язок між максимальною ймовірністю та максимальною оцінкою Posteriori .
І ще одна відмінність полягає в тому, що максимальна ймовірність є схильною до вирівнювання, але якщо ви скористаєтеся байєсівським підходом, можна уникнути проблеми з надмірною обробкою.