Розуміння байесівських прогнозних розподілів


9

Я проходжу курс «Вступ до Байєса» і мені виникають труднощі в розумінні прогнозних розподілів. Я розумію, чому вони корисні, і я знайомий з визначенням, але є деякі речі, які я не зовсім розумію.

1) Як отримати правильний прогнозний розподіл для вектора нових спостережень

Припустимо, що ми побудували модель вибірки для даних та попереднього . Припустимо, що спостереження умовно незалежні, задані .p(yi|θ)p(θ)yiθ

Ми спостерігали деякі дані , і ми оновлюємо попереднє до заднього .D={y1,y2,...,yk}p(θ)p(θ|D)

Якби ми хотіли передбачити вектор нових спостережень , я думаю, нам слід спробувати отримати задній прогноз, використовуючи цю формулу що не дорівнює тож прогнозовані спостереження не є незалежними, правда?N={y~1,y~2,...,y~n}

p(N|D)=p(θ|D)p(N|θ)dθ=p(θ|D)i=1np(y~i|θ)dθ,
i=1np(θ|D)p(y~i|θ)dθ,

Скажіть, що Beta ( ) і Binomial ( ) для фіксованого . У цьому випадку, якщо я хотів би змоделювати 6 нових , якщо я це правильно зрозумів, було б неправильно імітувати 6 малюнків незалежно від бета-біноміального розподілу, що відповідає передньому прогнозуванню для одного спостереження. Це правильно? Я не знаю, як трактувати, що спостереження незначно не залежать, і я не впевнений, що я правильно це розумію.θ|Da,bp(yi|θ)n,θny~

Моделювання від заднього прогнозу

Багато разів, коли ми моделюємо дані із заднього передбачення, ми дотримуємось цієї схеми:

Для від 1 до :bB

1) Зразок з .θ(b)p(θ|D)

2) Потім моделюйте нові дані з .N(b)p(N|θ(b))

Я не зовсім знаю, як довести, що ця схема працює, хоча це виглядає інтуїтивно. Також, чи має це ім’я? Я намагався шукати виправдання, і я спробував різні назви, але мені не пощастило.

Дякую!


Я задав подібне запитання на сайті stats.stackexchange.com/questions/72570/…, але схоже, що ваш голос отримав більше голосів.
Джон

Відповіді:


4

Припустимо, що умовно незалежні, враховуючи, що . Тоді в яких перша рівність випливає із закону сумарної ймовірності, друга випливає з правила добутку, а третя - з передбачуваної умовної незалежності: з урахуванням значенняX1,,Xn,Xn+1Θ=θ

fХн+1Х1,,Хн(хн+1х1,,хн)=fХн+1,ΘХ1,,Хн(хн+1,θх1,,хн)гθ
=fХн+1Θ,Х1,,Хн(хн+1θ,х1,,хн)fΘХ1,,Хн(θх1,,хн)гθ
=fХн+1Θ(хн+1θ)fΘХ1,,Хн(θх1,,хн)гθ,
Θ, нам не потрібні значення для визначення розподілу .Х1,,ХнХн+1

Схема імітації правильна: для , малюємо з розподілу , потім малюємо з розподілу . Це дає вам зразок з розподілу .i=1,,Nθ(i)ΘХ1=х1,,Хн=хнхн+1(i)Хн+1Θ=θ(i){хн+1(i)}i=1NХн+1Х1=х1,,Хн=хн


Що робити, якщо ви отримуєте задній прогноз протягом декількох періодів? Я використовую для кожного , але я бачу, чому може бути сенс перемальовувати нову тету. θ(i)хн+j
Іван

2

Я спробую розібратися з інтуїцією, що створює крок за кроком заднього прогнозного розподілу.

Нехай - вектор спостережуваних даних, що походять від розподілу ймовірності і - вектор майбутніх (або поза вибіркою) значень, які ми хочемо передбачити. Будемо вважати, що походить від того ж розподілу, що і . Для отримання інформації про цей розподіл може бути заманливо використовувати найкращу оцінку ---, наприклад, оцінку MLE або MAP ---. Однак це неминуче ігнорує нашу невизначеність щодо . Таким чином, відповідним способом просування є середнє значення по задньому розподілу , а саме . Зауважте також, щоуp(у|θ)у~у~уθθθp(θ|у)у~не залежить від даного , так як передбачається , є незалежним зразок з того ж розподілу , як . Таким чином,уθу

p(у~|θ,у)=p(у~,у|θ)p(θ)p(θ,у)=p(у~|θ)p(у|θ)p(θ)p(у|θ)p(θ)=p(у~|θ).

Таким чином, задній прогнозний розподіл є,у~

p(у~|у)=Θp(у~|θ,у)p(θ|у)гθ=Θp(у~|θ)p(θ|у)гθ

де - це підтримка .Θθ

Тепер, як отримати зразки з ? Описаний вами метод іноді називають методом композиції , який працює наступним чином:p(у~|у)


для s = 1,2, ..., S

малювати зθ(с)p(θ|у)

малювати зу~(с)p(у~|θ(с))


де, у більшості ситуацій, ми маємо малюнки з , так що потрібен лише другий крок.p(θ|у)

Причина, чому це працює, досить проста: Спочатку зауважте, що . Таким чином, вибір вибір параметру вектора з а потім, використовуючи цей вектор для вибірки з дає зразки з спільного розподілу . Звідси випливає, що вибіркові значення - вибірки з граничного розподілу, .p(у~,θ|у)=p(у~|θ,у)p(θ|у)θ(с)p(θ|у)у~(с)p(у~|θ(с))=p(у~|θ(с),у)p(у~,θ|у)у~(с),с=1,2,...,Sp(у~|у)


1

Щоб вирішити ваше перше питання: так, спостереження не є незалежними, якщо ви не знаєте значення . Скажімо, ви помітили, що має досить екстремальне значення. Це може бути вказівкою на те, що невідоме значення самого є крайнім, і, таким чином, слід очікувати, що й інші спостереження будуть крайніми.θу~1θ

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.