Простіше кажучи, без будь-яких математичних символів, попередньо означає початкові переконання про подію з точки зору розподілу ймовірностей . Потім ви налаштовуєте експеримент і отримуєте деякі дані, а потім "оновлюєте" свою переконання (а отже, імовірність розподілу) відповідно до результату експерименту (апостеріорний розподіл ймовірностей).
Приклад:
Припустимо, нам дають дві монети. Але ми не знаємо, яка монета підроблена. Монета 1 є неупередженою (голова та хвости мають 50% ймовірності), а монета 2 є упередженою, скажімо, ми знаємо, що вона дає голову з вірогідністю 60%. Математично:
Враховуючи, що у нас є ГОЛОВИ, ймовірність того, що це Монета 1, становить 0,4 а ймовірність - Монета 2 - 0,6
р ( Н| Со я н1) = 0,4
р ( Н| Со я н2) = 0,6
Отже, це все, що ми знаємо, перш ніж поставити експеримент.
Тепер ми збираємося викинути монету, і, виходячи з інформації, яку ми маємо (Н або Т), ми будемо здогадуватися, яку монету ми вибрали (Монета 1 або Монета 2).
Спочатку ми припускаємо, що обидві монети мають рівні шанси, тому що у нас поки немає інформації. Це наш пріоритет . Це рівномірний розподіл.р ( Со я н1) = р ( Со я н2) = 0,5
Тепер ми беремо випадково одну монету, кидаємо її і маємо ГОЛОВИ. У цей момент все відбувається. Ми обчислюємо задню ймовірність / розподіл, використовуючи байєсівську формулу:
р ( Со я н1| Н) = р ( Н| Со я н1) p ( Cо я н1)р ( Н| Со я н1) p ( Cо я н1) + р ( Н| Со я н2) p ( Cо я н2)= 0,4 × 0,50,4 × 0,5 + 0,6 × 0,5= 0,4
р ( Со я н2| Н) = р ( Н| Со я н2) p ( Cо я н2)р ( Н| Со я н1) p ( Cо я н1) + р ( Н| Со я н2) p ( Cо я н2)= 0,6 × 0,50,4 × 0,5 + 0,6 × 0,5= 0,6
Так, спочатку у нас була ймовірності для кожної монети, але тепер після експерименту наші переконання змінилися, тепер ми вважаємо, що монета - Монета 1 з ймовірністю 0,4 і це Монета 2 з ймовірністю 0,6. Це наш задній розподіл, розподіл Бернуллі .0,5
Це основний принцип байєсівського висновку та статистики, що використовується в машинному навчанні.