Яке теоретичне обґрунтування рішень для Байєсових достовірних інтервальних процедур?


20

(Щоб зрозуміти, чому я це написав, перегляньте коментарі нижче моєї відповіді на це запитання .)

Помилки типу III та теорія статистичних рішень

Правильна відповідь на неправильну запитання іноді називається помилкою типу III. Теорія статистичних рішень - це формалізація прийняття рішень в умовах невизначеності; він забезпечує концептуальну основу, яка може допомогти уникнути помилок типу III. Ключовий елемент фреймворку називається функцією втрат . Потрібно два аргументи: перший - це (відповідна підмножина) справжнього стану світу (наприклад, в задачах оцінки параметрів, справжнє значення параметра ); другий - елемент у наборі можливих дій (наприклад, у задачах з оцінкою параметрів, оцінкаthetas ; )θθ^). Результат моделює втрати, пов'язані з усіма можливими діями стосовно кожного можливого справжнього стану світу. Наприклад, в задачах оцінки параметрів деякі добре відомі функції втрат:

  • абсолютна втрата помилкиL(θ,θ^)=|θθ^|
  • втрата помилки в квадратіL(θ,θ^)=(θθ^)2
  • Втрата LINEX Хал ВаріанаL(θ,θ^;k)=exp(k(θθ^))k(θθ^)1, k0

Вивчаючи відповідь, щоб знайти питання

Існує випадок, який можна спробувати зробити, щоб помилки типу III можна було уникнути, зосередившись на формуванні правильної функції втрат та проході через інший теоретичний підхід щодо прийняття рішень (тут не докладно). Це не моє стисло - адже статистики добре оснащені багатьма методиками та методами, які добре працюють, хоча вони не випливають із такого підходу. Але, як мені здається, кінцевий результат полягає в тому, що переважна більшість статистиків не знає і не переймається теорією статистичних рішень, і я думаю, що вони відсутні. Для цих статистиків я можу стверджувати, що причина, по якій вони можуть вважати теорію статистичних рішень цінною з точки зору уникнення помилок типу III, полягає в тому, що вона забезпечує основу для запиту будь-якої запропонованої процедури аналізу даних:з якою функцією втрати (якщо така є) виконує процедура оптимально? Тобто, в якій саме ситуації прийняття рішень вона дає найкращу відповідь?

Задні очікувані втрати

З байєсівської точки зору, функція втрат - це все, що нам потрібно. Ми можемо значною мірою пропустити решту теорії рішень - майже за визначенням, найкраще робити - це мінімізувати очікувані втрати заднього рівня, тобто знайти дію яка мінімізує .˜ L ( a ) = Θ L ( θ , a ) p ( θ | D ) d θaL~(a)=ΘL(θ,a)p(θ|D)dθ

(А що стосується не-байесівських поглядів? Ну, це теорема теорії частотних рішень - конкретно, теореми повного класу Вальда - що оптимальною дією завжди буде мінімізація очікуваної втрати Байєса заднього рівня щодо деяких (можливо, неправильних) Складність з цим результатом полягає в тому, що саме теорема існування не дає ніяких вказівок щодо того, які до використання. Але вона плідно обмежує клас процедур, який ми можемо "перевернути", щоб точно з'ясувати, з якого питання йдеться Відповідь. Зокрема, першим кроком у переверненні будь-якої не-баєсової процедури є з'ясування, яку (якщо вона є) баєсову процедуру вона повторює або наближає.)

Ей, Сіане, ти знаєш, що це питання з питань запитання, правда?

Що підводить мене, нарешті, до статистичного питання. У статистиці Байєса при наданні оцінок інтервалу для одновимірних параметрів дві загальні достовірні інтервальні процедури - це достовірний інтервал на основі квантилі та найвищий достовірний інтервал задньої щільності. Які функції збитків стоять за цими процедурами?


Дуже хороша. Але чи є вони єдиними функціями втрат, що виправдовують ці процедури?
гість

1
@Cyan >> Дякую за запитання та відповіді на запитання для мене :) Я прочитаю все це та підкажу, коли це можливо.
Стефан Лоран

4
Цікава цитата з теорії статистичних рішень Бергера та байєсівського аналізу : "ми не вважаємо достовірні набори такими, що мають чітку теоретико-теоретичну роль, і тому вибираємо" оптимальність "підходів до вибору достовірного набору"
Саймон Берн

1
@Simon Byrne >> 1985 рік був давно; Цікаво, чи він все ще так думає.
Циан

1
@Cyan: Я не знаю, але теорія прийняття рішень є тією частиною байєсівської статистики, яка не змінилася багато за останні 27 років (було декілька цікавих результатів, але книга Бергера все ще є стандартною орієнтиром), особливо у порівнянні з популярністю мінімакс призводить до частотистської статистики.
Саймон Бірн

Відповіді:


15

При одновимірному оцінці інтервалу набір можливих дій - це набір упорядкованих пар із зазначенням кінцевих точок інтервалу. Нехай елемент цього набору представляється .(a,b), ab

Найвищі інтервали задньої щільності

Нехай задня густина буде . Найвищі інтервали задньої щільності відповідають функції втрат, яка штрафує інтервал, який не містить справжнього значення, а також штрафує інтервали пропорційно їх довжині:f(θ)

LHPD(θ,(a,b);k)=I(θ[a,b])+k(ba),0<kmaxθf(θ) ,

де - функція індикатора . Це дає очікувані задні втратиI()

L~HPD((a,b);k)=1Pr(aθb|D)+k(ba) .

Встановлення дає необхідну умову для локальний оптимум у внутрішній частині простору параметрів: - саме правило для інтервалів HPD, як очікувалося.f(a)=f(b)=kaL~HPD=bL~HPD=0f(a)=f(b)=k

Форма дає деяке розуміння того, чому інтервали HPD не інваріантні монотонному зростанню перетворення параметра. -простору ОПД інтервал перетворюється в простір відрізняється від -простору ОПД інтервал , так як два інтервали відповідає різним функціям втрат: при -простору ОПДА інтервал відповідає перетворена довжина штрафу .g(θ)θg(θ)g(θ)g(θ)k(g(b)-g(a))L~HPD((a,b);k)g(θ)θg(θ)g(θ)g(θ)k(g(b)g(a))

Достовірні інтервали на основі квантилі

Розглянемо оцінку балів за допомогою функції втрат

Lq(θ,θ^;p)=p(θ^θ)I(θ<θ^)+(1p)(θθ^)I(θθ^), 0p1 .

Задня очікувана втрата

L~q(θ^;p)=p(θ^E(θ|θ<θ^,D))+(1p)(E(θ|θθ^,D)θ^) .

Встановлення дає непряме рівнянняddθ^L~q=0

Pr(θ<θ^|D)=p ,

тобто оптимальним є % квантил заднього розподілу, як очікувалося. (100р)θ^(100p)

Таким чином, для отримання кількісних інтервальних оцінок функцією втрат є

LqCI(θ,(a,b);pL,pU)=Lq(θ,a;pL)+Lq(θ,b;pU) .


1
Інший спосіб мотивувати це - переписати функцію втрат у вигляді (зваженої) суми ширини інтервалу плюс відстань, якщо така є, коли інтервал не зможе покрити справжню . θ
гість

Чи є якийсь інший спосіб подумати про інтервали на квантильній основі, які безпосередньо не посилаються на кванти чи довжину інтервалу. Я сподівався на щось на кшталт "квантильний інтервал максимізує / мінімізує середнє / мінімум / максимум / тощо. Щось вимірює"
Rasmus Bååth

@ RasmusBååth, ви в основному запитуєте: "які необхідні умови функції втрати для квантильних інтервалів є рішенням мінімізації задньої очікуваної втрати?" Моя інтуїція, саме з того, як математика працює у прямому напрямку, полягає в тому, що це майже все це. Не довів це, хоча.
Cyan

Тож я не впевнений у функції втрат, але я знаю про процедуру, яка залежно від функції втрати точок призведе до виникнення або ВПР, або квантильного інтервалу. Припустимо , у вас є випадкові вибірки - дро з задньої. 1. Виберіть точку в з найнижчою задньою втратою і додайте її до інтервалу. 2. Видаліть цю точку з , через це видалення задня втрата для решти точок може змінитися (залежно від ). 3. Будьте щасливі, якщо ваш інтервал має необхідне покриття, інакше повторіть з (1). L = L0 дає HPD, L = L1 дає квантильний інтервал. s s s s LLssssL
Rasmus Bååth

5
лише згадуючи, що Розділ 5.5.3 Байєсівського вибору охоплює виведення достовірних множин на основі збитків ...
Сіань

1

Інтервали мінімальних розмірів

Одним із очевидних виборів функції втрат для вибору інтервалу (як байєсівської, так і частотистської) є використання розміру інтервалів, виміряних з точки зору граничних розподілів. Таким чином, почніть з бажаної властивості або функції втрати та отримайте оптимальні інтервали. Це, як правило, не робиться, як це пояснюється цим питанням, хоча це можливо. Для достовірних множин Байєса це відповідає мінімізації попередньої вірогідності інтервалу або максимальному відносному переконанню, наприклад, як зазначено в Evans (2016). Розмір може також використовуватися для вибору наборів довіри часті (Schafer 2009). Два підходи пов'язані між собою і можуть бути реалізовані досить легко за допомогою правил прийняття рішень, які переважно включали рішення з великою точковою взаємною інформацією (Bartels 2017).

Bartels, C., 2017. Використання попередніх знань у періодичних тестах. фішаре. https://doi.org/10.6084/m9.figshare.4819597.v3

Еванс, М., 2016. Вимірювання статистичних доказів з використанням відносної віри. Журнал обчислювальної та структурної біотехнології, 14, с.91-96.

Schafer, CM та Stark, PB, 2009. Побудова довірчих областей оптимального очікуваного розміру. Журнал Американської статистичної асоціації, 104 (487), стор.1080-1089.


Я бачу, ви цитуєте Еванса на пропозицію Кіта О'Рурке ( andrewgelman.com/2016/07/17/… ). Мені дуже подобаються речі Еванса.
Cyan

Мені дуже приємно, що мене повідомив Кіт про роботу, яка починається інакше, але закінчується подібними висновками! Важливо це цитувати.
користувач36160
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.