Яке відношення стоїть перед Джефріс Пріором та трансформацією, що стабілізує дисперсію?


17

Я читав про Джеффрі до Вікіпедії: Джефріс Пріор і бачив, що після кожного прикладу він описує, як трансформація, що стабілізує дисперсію, перетворює Джефріса до рівномірного.

Як приклад для випадку Бернуллі, він стверджує, що для монети, яка є головами з ймовірністю γ[0,1] , випробувальна модель Бернуллі виводить, що до цього параметра Джеффрі для параметра γ дорівнює:

p(γ)1γ(1γ)

Потім заявляється, що це бета-розподіл з α=β=12 . Він також говорить, що якщоγ=sin2(θ), то Джефріс доθє рівномірним в інтервалі[0,π2].

Я визнаю перетворення як трансформацію, що стабілізує дисперсію. Що мене бентежить:

  1. Чому трансформація, що стабілізує дисперсію, призведе до рівномірного попереднього?

  2. Чому ми навіть хотіли б єдиного попереднього? (оскільки, здається, може бути сприйнятливішим до неналежного)

Взагалі, я не зовсім впевнений, чому трансформується квадратна синус і яку роль відіграє. Хтось мав би якісь ідеї?


2
Я виходжу з себе як шарлатан-самоучка, запитуючи це, але: про яку трансформацію, що стабілізує дисперсію, ви маєте на увазі? ? 1sin2(θ)(1sin2(θ))
shadowtalker

2
Синусовий квадратик - це неправильний спосіб думки про трансформацію. - квадратний корінь дуги або кутове перетворення. θ=arcsinγ
Нік Кокс

Відповіді:


3

Пріоритет Джеффрі інваріантний при репараметрізації. З цієї причини багато байєсів вважають це "попереднім неінформативним". (Хартіган показав, що існує цілий простір таких пріорів для α + β = 1, де J - попереднє значення Джеффріса, а H - асимптотично місцевий асимптотичний характер Хартігана. - Інваріантні попередні розподіли ) JαHβα+β=1JH

Часто повторюється помилковість, що попередній рівномірний формат є неінформативним, але після довільної трансформації ваших параметрів і рівномірного до нових параметрів означає щось зовсім інше. Якщо довільна зміна параметризації впливає на ваш попередній, то ваш попередній явно є інформативним.

  1. Використання Джеффрі за визначенням еквівалентно використанню плоскої до застосування після перетворення стабілізації дисперсії.

  2. З математичної точки зору, використання Джефріса до цього та використання площини до застосування перетворення, стабілізуючого дисперсію, є рівнозначними. З точки зору людини, останній, мабуть, приємніший, оскільки простір параметрів стає "однорідним", в тому сенсі, що відмінності є однаковими у кожному напрямку, незалежно від того, де ви знаходитесь у просторі параметрів.

Розгляньте свій приклад Бернуллі. Хіба не дивно, що зарахування 99% на тесті - це однакова відстань до 90%, як 59% - 50%? Після перетворення, що стабілізує дисперсію, колишня пара буде більш відокремленою, як і належить. Це відповідає нашій інтуїції щодо фактичних відстаней у просторі. (Математично перетворення, що стабілізує дисперсію, робить викривлення втрати журналу рівним матриці тотожності.)


1. Я погоджуюся, що рівномірне попереднє значення не означає "неінформативне" попереднє, але мій коментар щодо того, щоб не оцінювати певне значення над іншим значенням, все-таки має місце (відповідно до цієї конкретної параметризації). 2. Власність пріору дуже важлива . Якщо у вас є неправильний попередній час і у вас є дані, це не гарантує, що у вас буде належна задня частина. Тож це дуже стосується.
Грінпаркер

1. Але в цьому і вся суть: параметризація довільна, тому безглуздо говорити, що ви не оцінюєте одне значення над іншим. 2. На практиці я жодного разу не вважав, що це стосується. Можливо, це стосується й інших людей.
Ніл Г

1. Справедливий пункт. 2. Я не впевнений, з якими проблемами ви стикаєтесь, але навіть проста гауссова вірогідність з попереднім Джефрісом може мати неправильну задню частину. Дивіться мою відповідь тут .
Грінпаркер

@Greenparker Ви маєте рацію. Я уточню, чому це не стосується мене у своїй відповіді.
Ніл Г

(0,)

5

Сторінка Вікіпедії, яку ви надали, насправді не використовує термін "трансформація, що стабілізує дисперсію". Термін "дисперсія-стабілізуюча трансформація" зазвичай використовується для позначення перетворень, які роблять дисперсію випадкової величини постійною. Хоча у випадку Бернуллі, це саме те, що відбувається з трансформацією, це не зовсім мета. Мета - отримати рівномірний розподіл, а не лише стабілізацію дисперсії.

Нагадаємо, що однією з головних цілей використання Джефріса є те, що воно є інваріантним під час трансформації. Це означає, що якщо ви повторно параметризуєте змінну, попередня не зміниться.

1.

(1/2,1/2)

pγ(γ)1γ(1γ).

γ=sin2(θ)θθ=arcsin(γ)0<γ<10<θ<π/2sin2(x)+cos2(x)=1

Fθ(x)=P(θ<x)=P(sin2(θ)<sin2(x))=P(γ<sin2(x))=Fγ(sin2(x))fθ(x)=dFγ(sin2(x)dx=2sin(x)cos(x)pγ(sin2(x))sin(x)cos(x)1sin2(x)(1sin2(x))=1.

Thus θ is the uniform distribution on (0,π/2). This is why the sin2(θ) transformation is used, so that the re-parametrization leads to a uniform distribution. The uniform distribution is now the Jeffreys prior on θ (since Jeffreys prior is invariant under transformation). This answers your first question.

2.

Often in Bayesian analysis one wants a uniform prior when there is not enough information or prior knowledge about the distribution of the parameter. Such a prior is also called a "diffuse prior" or "default prior". The idea is to not commit to any value in the parameter space more than other values. In such a case the posterior is then completely dependent on the data likelihood. Since,

q(θ|x)f(x|θ)f(θ)f(x|θ).

If the transformation is such that the transformed space is bounded, (like (0,π/2) in this example), then the uniform distribution will be proper. If the transformed space is unbounded, then the uniform prior will be improper, but often the resulting posterior will be proper. Although, one should always verify that this is the case.


This idea that you are "not committing to any value" by using a diffuse prior is wrong. The proof is that you can take any transformation of the space and the diffuse prior will mean something completely different.
Neil G

My comment on "not committing to any value" refers only to that particular parameterization. Of course, transformations will change how the mass is distributed (just like in this Bernoulli example).
Greenparker

Like I said below your other comment, the parametrization is arbitrary, which is why the statement "not committing to any value" is meaningless.
Neil G
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.