Я відкладаю "відповідь" на питання, яке я дав десь два тижні тому: Чому корисність "Джеффріс" корисна? Це справді було питання (і я тоді не мав права публікувати коментарі), тому я сподіваюся, що це нормально:
У посиланні вище обговорюється, що цікавою особливістю Джефріса до цього є те, що при перемодуванні моделі отриманий задній розподіл дає задню ймовірність, що підкоряється обмеженням, накладеним перетворенням. Скажімо, як обговорювалося там, при переході від ймовірності успіху у прикладі Бета-Бернуллі до коефіцієнтів , має бути випадок, що задній задовольняє .
Я хотів створити числовий приклад інваріантності Джефріса до перетворення на коефіцієнти , і, що цікавіше, відсутність інших пріорів (скажімо, Халдана, рівномірного чи довільного).
Тепер, якщо заднім для ймовірності успіху є Beta (для будь-якої бета-версії, не тільки Jeffreys), задня частина шансів слідує за бета-розподілом другого роду (див. Вікіпедія) з тими ж параметрами . Тоді, як підкреслено в числовому прикладі нижче, не надто дивно (мені щонайменше), що існує інваріантність будь-якого вибору бета-версії (пограти з alpha0_U
і beta0_U
), не тільки Джеффріс, пор. вихід програми.
library(GB2)
# has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta)
theta_1 = 2/3 # a numerical example as in the above post
theta_2 = 1/3
odds_1 = theta_1/(1-theta_1) # the corresponding odds
odds_2 = theta_2/(1-theta_2)
n = 10 # some data
k = 4
alpha0_J = 1/2 # Jeffreys prior for the Beta-Bernoulli case
beta0_J = 1/2
alpha1_J = alpha0_J + k # the corresponding parameters of the posterior
beta1_J = beta0_J + n - k
alpha0_U = 0 # some other prior
beta0_U = 0
alpha1_U = alpha0_U + k # resulting posterior parameters for the other prior
beta1_U = beta0_U + n - k
# posterior probability that theta is between theta_1 and theta_2:
pbeta(theta_1,alpha1_J,beta1_J) - pbeta(theta_2,alpha1_J,beta1_J)
# the same for the corresponding odds, based on the beta distribution of the second kind
pgb2(odds_1, 1, 1,alpha1_J,beta1_J) - pgb2(odds_2, 1, 1,alpha1_J,beta1_J)
# same for the other prior and resulting posterior
pbeta(theta_1,alpha1_U,beta1_U) - pbeta(theta_2,alpha1_U,beta1_U)
pgb2(odds_1, 1, 1,alpha1_U,beta1_U) - pgb2(odds_2, 1, 1,alpha1_U,beta1_U)
Це підводить мене до наступних питань:
- Чи помиляюся?
- Якщо ні, чи є такий результат, як відсутність інваріантності у суміжних родинах чи щось подібне? (Швидкий огляд змушує мене підозрювати, що я можу, наприклад, також не спричинити відсутність інваріантності у звичайному нормальному випадку.)
- Чи знаєте ви (бажано, простий) приклад, у якому нам не вистачає інваріантності?