Правки: Я додав простий приклад: висновок про середнє значення . Я також трохи уточнив, чому вірні інтервали, що не відповідають довірчим інтервалам, є поганими.
Я, досить побожний байесів, перебуваю в середині кризи віри.
Моя проблема полягає в наступному. Припустимо, що я хочу проаналізувати деякі дані IID . Що я б робив:
спочатку запропонуйте умовну модель:
Потім виберіть пріоритет на :
Нарешті, застосуйте правило Байєса, обчисліть заднє: (або деяке наближення до нього, якщо воно повинно бути непорушним) і відповіді на всі питання, які у мене є щодо
Це розумний підхід: якщо справжня модель даних дійсно знаходиться "всередині" мого умовного (це відповідає деякому значенню ), то я можу закликати теорію статистичних рішень, щоб сказати, що мій метод допустимий (див. "Байєсівський вибір" для деталей; "Вся статистика" також дає чіткий виклад у відповідній главі).
Однак, як всім відомо, припускаючи, що моя модель правильна, є досить зарозумілою: чому природа повинна акуратно потрапляти всередину коробки моделей, які я розглядав? Набагато реальніше припустити, що реальна модель даних відрізняється від для всіх значень . Зазвичай це називається "неправильно визначеною" моделлю.p ( X | θ ) θ
Моя проблема полягає в тому, що в цьому більш реалістичному неправильному випадку я не маю жодних вагомих аргументів для того, щоб бути байєсівським (тобто: обчислення заднього розподілу), а не просто обчислювачем максимальної ймовірності (MLE):
Дійсно, за словами Kleijn, vd Vaart (2012) , у неправильному випадку задній розподіл:
конвергується як до розподілу дираків, зосередженим уthetas ; M L
не має правильної дисперсії (якщо тільки два значення не збігаються) для того, щоб переконатися, що достовірні інтервали довірчих інтервалів довіри збігаються для . (Зауважте, хоча інтервали довіри, очевидно, є тим, про що байєси не переймаються надмірно, це якісно означає, що задній розподіл по суті невірний, оскільки це означає, що його достовірні інтервали не мають правильного покриття)
Таким чином, ми сплачуємо комп’ютерну премію (байєсівський висновок, загалом, дорожчий, ніж MLE), без додаткових властивостей
Отже, нарешті, моє запитання: чи є аргументи, теоретичні чи емпіричні, для використання байєсівського висновку щодо простішої альтернативи MLE, коли модель неправильно визначена?
(Оскільки я знаю, що мої запитання часто незрозумілі, повідомте мене, якщо ви щось не розумієте: я спробую перефразувати це)
Редагувати: розглянемо простий приклад: підводимо середнє значення за моделлю Гаусса (з відомою дисперсією для спрощення ще більше). Ми вважаємо Гауссовим пріоритетом: позначимо попереднім середнім, - зворотною дисперсією попереднього. Нехай - емпіричне середнє значення . Нарешті, зверніть увагу: . σ μ 0 β 0 ˉ X X i μ = ( β 0 μ 0 + n
Задній розподіл:
У правильно вказаному випадку (коли дійсно мають гауссовий розподіл), цей задник має такі приємні властивості
Якщо породжуються з ієрархічної моделі, в якій їх загальне середнє значення вибирається з попереднього розподілу, то задні достовірні інтервали мають точне покриття. За умовами даних, ймовірність того, що знаходиться в будь-якому інтервалі, дорівнює ймовірності того, що задній приписується цьому інтервалу θ
Навіть якщо попередні невірні, достовірні інтервали мають правильне покриття в межі в якій попередній вплив на задню зникає
заднє додатково має хороші частолістські властивості: будь-який байєсівський оцінювач, побудований із задньої частини, гарантовано є прийнятним, заднє середнє значення - ефективний оцінювач (у розумінні Крамера-Рао) середнього, достовірні інтервали - це асимптотично довірчі інтервали.
У неправильному випадку більшість цих властивостей теорією не гарантується. Для того, щоб виправити ідеї, припустимо, що реальна модель для полягає в тому, що вони замість дистрибутивів Student. Єдиною властивістю, яку ми можемо гарантувати (Kleijn та ін.), Є те, що задній розподіл концентрується на реальній середній в межі . Загалом, всі властивості покриття зникли б. Гірше, загалом, ми можемо гарантувати, що в цій межі властивості покриття принципово неправильні: задній розподіл приписує неправильну ймовірність різним регіонам простору.X i n → ∞