Використання функцій щільності ймовірності в обчисленнях. Іншими словами, як оцінювати такі рівняння.
Я думаю, ти все ще думаєш про це з точки зору частолістської думки: якщо ти шукаєш оцінку точки, задній не дасть тобі це. Якщо ви помістите PDF-файли, ви отримаєте PDF-файли. Отримати оцінку балів можна, обчисливши статистику із заднього розподілу, але я трохи до цього довідаюся.
Я розумію, як "пріори" проти "плакатів" і розумію, як застосувати їх за допомогою таблиці вручну. Я розумію (я думаю!), Що pi являє собою передбачувану пропорцію чи ймовірність населення.
- те саме, що і p ( x ) : вони обидва PDF-файли. π просто умовно використовується для позначення того, що конкретний PDF є попередньою щільністю.π(x)p(x)π
Я підозрюю, що ви не отримуєте пріорів та позиціонерів так добре, як ви вважаєте, що ви робите, тому давайте повернемося до фундаментальної основи байєсівської статистики: Суб'єктивна ймовірність .
Мисленнєвий експеримент в суб'єктивній ймовірності
Скажімо, я представляю вам монету і запитаю вас, чи не вважаєте ви цю монету справедливою монетою чи ні. Ви чули, як багато людей говорять про несправедливі монети класу ймовірностей, але ви ніколи насправді не бачили жодної в реальному житті, тому ви відповідаєте: "Так, звичайно, я думаю, що це справедлива монета". Але той факт, що я навіть задаю вам це запитання, трохи відштовхує вас, тому, хоча ви вважаєте, що це справедливо, ви насправді не здивувались, якби не так. Набагато менше здивований, ніж якби ти знайшов цю монету в зміні кишені (бо ти вважаєш, що це все справжня валюта, і ти мені зараз не дуже довіряєш, тому що я дію підозріло).
Зараз ми проводимо кілька експериментів. Після 100 обертів монета повертає 53 голови. Ви набагато впевненіші, що це чесна монета, але ви все ще відкриті до можливості, що це не так. Різниця полягає в тому, що зараз ви були б дуже здивовані, якби ця монета виявила якусь упередженість.
Як ми можемо представити ваші попередні та задні переконання, зокрема, щодо ймовірності того, що монета покаже голову (яку ми позначимо )? У періодичній обстановці ваше попереднє переконання - ваша нульова гіпотеза - що θ = 0,5 . Після запуску експерименту ви не зможете відхилити нуль, і тому ви продовжуєте припускати, що так, монета, ймовірно, справедлива. Але як ми можемо відобразити зміни у вашій впевненості, що монета справедлива? Після експерименту ви перебуваєте в такому положенні, що можете зробити ставку на те, що монета є справедливою, але перед експериментом ви були б трепетні.θθ=0.5
У налаштуваннях Баєса ви вкладаєте свою впевненість у пропозиції, не трактуючи ймовірності як скалярні значення, а як випадкові змінні, тобто функції. Замість того, щоб говорити ми говоримо θ ∼ N ( 0,5 , σ 2 ) , і тим самим інкапсулюємо нашу впевненість у дисперсії PDF. Якщо ми встановимо велику дисперсію, ми говоримо: "Я думаю, що ймовірність дорівнює 0,5, але я би не здивувався, якщо ймовірність, яку я насправді спостерігаю у світі, далека від цієї величини. Я думаю, що θ = 0,5θ=0.5θ∼N(0.5,σ2)θ=0.5але, чесно кажучи, я не дуже впевнений у цьому. "Встановлюючи низьку дисперсію, ми говоримо:" Я не тільки вважаю, що ймовірність дорівнює 0,5, але я був би дуже здивований, якщо експериментація дає значення, яке не дуже близьке до . "Так, у цьому прикладі, коли ви починаєте експеримент, у вас є велика дисперсія. Після отримання даних, що підтверджують ваш попередній рівень, середнє значення попереднього залишилося незмінним, але дисперсія стала набагато вужчою. Ми впевнені, що θ = 0,5 набагато вище після запуску експерименту, ніж раніше.θ=0.5θ=0.5
То як ми виконуємо розрахунки?
Ми починаємо з PDF-файлів, а закінчуємо з PDF-файлами. Коли вам потрібно повідомити про бальну оцінку, ви можете обчислити статистику на зразок середньої, медіани або режиму вашого заднього розподілу (залежно від вашої функції втрат, в яку я зараз не потрапляю. Давайте просто дотримаємось середнього). Якщо у вас є рішення закритої форми для вашого PDF, це, ймовірно, буде тривіально визначати ці значення. Якщо задня частина складна, ви можете скористатися процедурами, такими як MCMC, щоб взяти вибірку з задньої частини та отримати статистику з обраного вами вибірки.
У прикладі, коли у вас є вірогідність бета-попередньої та біноміальної, обчислення заднього зводиться до дуже чистого обчислення. Подано:
- До: θ∼Beta(α,β)
- X|θ∼Binomial(θ)
Потім заднє зменшується до:
- θ|X∼Beta(α+∑ni=1xi,β+n−∑ni=1xi)
Це станеться кожного разу, коли у вас є бета-версія до і біноміальної ймовірності, і причина, чому має бути очевидною в розрахунках, наданих DJE . Коли конкретна модель попередньої імовірності завжди дає задню частину, яка має такий самий вид розподілу, як і попередня, зв'язок між типами розподілів, що використовуються для попереднього і ймовірності, називається кон'югатом . Існує багато пар розподілів, які мають суміжні зв’язки, і кон'югація дуже часто використовується Байєсами для спрощення обчислень. Враховуючи особливу ймовірність, ви можете значно полегшити своє життя, вибравши попередньо сполучену форму (якщо така існує і ви можете виправдати свій вибір попереднього).
Я вважаю, що бета (1,1) відноситься до PDF, де середнє значення дорівнює 1, а stdev - 1?
У загальній параметризації нормального розподілу два параметри означають середнє та стандартне відхилення розподілу. Але саме так ми параметризуємо нормальний розподіл. Інші розподіли ймовірностей параметризуються дуже по-різному.
Б еta(α,β)αβ
XE[X]var[X]∼Beta(α,β)=αα+β=αβ(α+β)2(α+β+1)
Як ви добре бачите, середнє значення та дисперсія не є частиною параметризації цього розподілу, але вони мають рішення закритої форми, які є простими функціями вхідних параметрів.
Beta(1,1)Uniform(0,1)