Термінологія байєсівської задньої середньої величини ймовірності з рівномірним пріоритетом


11

Якщо p Уніфікована (0,1) і Х Bin (н,p) , тоді задне середнє значення p задається Х+1н+2 .

Чи є загальна назва цього оцінювача? Я виявив, що це вирішує багато проблем людей, і я хотів би мати можливість вказати людям на посилання, але не зміг знайти потрібне ім'я для цього.

Я смутно згадую, що це називалося чимось на кшталт "+ 1 / + 2 оцінка" в статистичній книзі 101, але це не дуже пошуковий термін.

Відповіді:


11

З попереднім Uнif(0,1)Бета(α0=1,β0=1) та ймовірністю Бiном(н,θ) показує х успіхів у н випробуваннях, задній розподіл є Бета(αн=1+х,βн=1+н-х). (Це легко помітити, помноживши на попередні ядра і ймовірність отримати ядро ​​заднього.)

Тоді задне середнє значення

мкн=αнαн+β=х+1н+2.

У байєсівському контексті найкращим є лише використання задніх середніх термінологій . (Медіана заднього розподілу та максимум його PDF також використовувались для узагальнення інформації про задню частину.)

Примітки: (1) Тут ви використовуєте Бета(1,1) як неінформативний попередній розподіл. З обгрунтованих теоретичних міркувань, деякі байєські статистики вважають за краще використовувати Джефріса до Бета(12,12)як неінформативний попередник. Тоді задне середнє значеннямкн=х+.5н+1.

(2) При виготовленні довірчих інтервали частотного Агресті і Коулли запропонували «додавши два успіхів і дві невдачі» в зразок для того , щоб отримати довірчий інтервал на основі оцінювання р = х + -p^=х+2н+4,яка має більш точні ймовірності охоплення (порівняннітрадиційною Wald інтервалувикористанням р =хp^=хн).Девід Мур назвав цеоцінкоюплюс чотирив деяких своїх широко використовуваних текстах елементарної статистики, а термінологію використовували інші. Я не був би здивований, побачивши вашого оцінювача під назвою "плюс два", а Джеффріса "плюс".

(3) Усі ці оцінки мають ефект "зменшення оцінки до 1/2", і тому їх називають "оцінювачами усадки" (термін, який набагато ширше використовується, особливо в висновках Джеймса-Штейна). Дивіться відповідь (+1) від @Taylor.



2
так, але як це допомагає термінології ?
BruceET

Це допомагає у виведенні, яке ви написали, просто. Я думаю, що деякі люди можуть зіткнутися з цим питанням, насправді шукаючи сам вихід.
Рой

3
(2) насправді мене цікавило. Я не усвідомлював, що оцінювач представлений із суто частовиправданих обґрунтувань. У тих випадках, коли я прописую це як рішення, це завжди щось на зразок того, як обчислити ймовірність, коли певний мультином не бачив раніше (тобто кластеризація підрахунків літер і один кластер не включає "z" s), так що нічого не потрібно робити з ймовірністю покриття КІ. Дякую!
Cliff AB

(0,1).

10

Це називається згладжуванням Лапласа або правилом правонаступництва Лапласа , оскільки П'єр-Саймон Лаплас використовував його для оцінки ймовірності того, що завтра знову зійде сонце: "Таким чином, ми виявляємо, що подія відбулася кілька разів, ймовірність того, що вона повториться знову наступного разу дорівнює цій кількості, збільшеній на одиницю, поділеній на однакову кількість, збільшеній на дві одиниці ".

Essai philosophique sur les Probabilités par le marquis de Laplace


(+1) для історичної довідки
BruceET

(+1) І це, і відповіді @ BruceET були різними, але правильними відповідями на моє запитання.
Cliff AB

5

.5


2
(+1) Це правда, це оцінка усадки. Я хотів конкретного імені для двочленного / мультиномного випадку, щоб я міг вказати іншим дослідникам матеріал на цей точний оцінювач, щоб вони не думали, що я просто кажу "додай 1 до речей, поки не отримаєш потрібну відповідь", а також не треба починати з початку пояснювати, що таке баєсівська статистика.
Cliff AB
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.