Що розуміється під терміном "попередній" в машинному навчанні


12

Я новачок у машинному навчанні. Я прочитав декілька робіт, де вони використовували глибоке навчання для різних застосувань і використовували термін "попередній" у більшості випадків модельного дизайну, скажімо до оцінки людського тіла. Може хтось пояснить, що це насправді означає. У навчальних посібниках я міг знайти лише математичну постановку попереднього та заднього.


5
Це математичне поняття, так, так, воно сформульовано математично. Однак сторінка Вікіпедії, здається, дає багато інтуїції. Ви це перевірили? Якщо так, чи можете ви сказати більше про те, чого ви не зрозуміли і що шукаєте у відповіді?
Девід Річербі

@David Richerby . Спасибі за вашу відповідь. Так, я перевірив цю сторінку вікіпедії, і міг зібрати розпливчасте уявлення про те, що це щось про знання чи інформацію про змінну. Я читав документи про оцінку пози на тілі, де згадувались про приори поза тіла, попередні кінематики тіла, моделювання пріорів над тривимірною позою людини, навчання пріорів, перш ніж оцінювати 3D позу людини. Я не міг чітко розібратися, що насправді в цьому контексті означає термін "попередній".
Емі

Відповіді:


13

Простіше кажучи, без будь-яких математичних символів, попередньо означає початкові переконання про подію з точки зору розподілу ймовірностей . Потім ви налаштовуєте експеримент і отримуєте деякі дані, а потім "оновлюєте" свою переконання (а отже, імовірність розподілу) відповідно до результату експерименту (апостеріорний розподіл ймовірностей).

Приклад: Припустимо, нам дають дві монети. Але ми не знаємо, яка монета підроблена. Монета 1 є неупередженою (голова та хвости мають 50% ймовірності), а монета 2 є упередженою, скажімо, ми знаємо, що вона дає голову з вірогідністю 60%. Математично:

Враховуючи, що у нас є ГОЛОВИ, ймовірність того, що це Монета 1, становить 0,4 а ймовірність - Монета 2 - 0,6

p(H|Coin1)=0.4
p(H|Coin2)=0.6

Отже, це все, що ми знаємо, перш ніж поставити експеримент.

Тепер ми збираємося викинути монету, і, виходячи з інформації, яку ми маємо (Н або Т), ми будемо здогадуватися, яку монету ми вибрали (Монета 1 або Монета 2).

Спочатку ми припускаємо, що обидві монети мають рівні шанси, тому що у нас поки немає інформації. Це наш пріоритет . Це рівномірний розподіл.p(Coin1)=p(Coin2)=0.5

Тепер ми беремо випадково одну монету, кидаємо її і маємо ГОЛОВИ. У цей момент все відбувається. Ми обчислюємо задню ймовірність / розподіл, використовуючи байєсівську формулу:

p(Coin1|H)=p(H|Coin1)p(Coin1)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.4×0.50.4×0.5+0.6×0.5=0.4

p(Coin2|H)=p(H|Coin2)p(Coin2)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.6×0.50.4×0.5+0.6×0.5=0.6

Так, спочатку у нас була ймовірності для кожної монети, але тепер після експерименту наші переконання змінилися, тепер ми вважаємо, що монета - Монета 1 з ймовірністю 0,4 і це Монета 2 з ймовірністю 0,6. Це наш задній розподіл, розподіл Бернуллі .0.5

Це основний принцип байєсівського висновку та статистики, що використовується в машинному навчанні.


2
Потрібно виправити приклад вище. Цей підрахунок показує, що обидві монети є упередженими (перша - зі зондом головки 40%, а друга - з вірогідністю 60%). Якщо перша є упередженою, це все-таки розподіл Бернуллі, але з ймовірністю P (Coin1 | H) = 5/11 і P (Coin2 | H) = 6/11
daniels_pa

1
Якщо "Враховуючи, що у нас є ГОЛОВИ, ймовірність того, що це монета 1 - 0,4", слід переписати як "Враховуючи, що у нас є Монета 1, ймовірність того, що це HEADS, становить 0,4" ?
Mateen Ulhaq

Пояснення не пояснює з точки зору машинного навчання.
користувач3023715
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.