Як робити оцінку, коли доступні лише зведені статистичні дані?


17

Частково це мотивоване наступним запитанням та обговоренням, що слідує за ним.

Припустимо, спостерігається зразок iid, XiF(x,θ) . Мета - оцінка . Але оригінальний зразок відсутній. Натомість ми маємо деякі статистичні дані зразка . Припустимо , фіксований . Як ми оцінюємо ? Який був би максимальний показник ймовірності в цьому випадку?θT1,...,Tkkθ


1
Якщо для відомої функції то ви можете записати розподіл і оцінку максимальної ймовірності вивести звичайним способом. Але ви не уточнили, що таке ? Ti=f(Xi)fTiTi
Стефан Лоран

3
Мене цікавить випадок, коли для відомих . Це я мав на увазі, коли сказав, що є вибірковою статистикою. Ti=f(X1,...,Xn)fTi
mpiktas

То в чому різниця між Ti і Tj ?
Стефан Лоран

2
Вибачте, це мало бути fi , а не одна f . У нас є кілька функцій fi , які беруть за аргумент всю вибірку.
mpiktas

Чи не для цього була розроблена максимальна ентропія?
ймовірністьлогічний

Відповіді:


14

У цьому випадку ви можете розглянути наближення ABC ймовірності (і, отже, MLE ) за наступним припущенням / обмеженням:

Припущення. Відомий вихідний розмір зразка n .

Це не дике припущення, враховуючи, що якість, з точки зору конвергенції, частофілістських оцінок залежить від розміру вибірки, тому не можна отримати довільно хороших оцінок, не знаючи початкового розміру вибірки.

Ідея полягає у створенні вибірки із заднього розподілу θ а для отримання апроксимації MLE можна використовувати техніку вибірки важливості, як у [1], або розглянути єдиний попередній θ з підтримкою на відповідній встановити, як у [2] .

Я буду описати метод у [2]. Перш за все, дозвольте описати пробник ABC.

ABC пробовідбірник

Нехай - модель, яка генерує вибірку, де θ Θ - параметр (підлягає оцінці), T - статистика (функція вибірки) і T 0 - спостережувана статистика, в жаргоні ABC це називається зведеною статистикою , ρ - метрикою, π ( θ ) попереднім розподілом на θ і ϵ > 0 допуском. Тоді вибірку ABC-відхилення можна здійснити наступним чином.f(|θ)θΘTT0ρπ(θ)θϵ>0

  1. Зразок з π ( ) .θπ()
  2. Створіть зразок розміру n з моделі f ( | θ ) .xnf(|θ)
  3. Обчисліть .T=T(x)
  4. Якщо , прийняти θ як симуляцію з задньої частини θ .ρ(T,T0)<ϵθθ

Цей алгоритм генерує приблизний зразок із заднього розподілу заданого T ( x ) = T 0 . Тому найкращий сценарій - це коли статистична величина T достатня, але можна використовувати інші статистичні дані. Більш детальний опис цього див. У цій роботі .θT(x)=T0T

Тепер, у загальних рамках, якщо використовується рівномірний пріоритет, який містить MLE в його підтримці, то Maximum a posteriori (MAP) збігається з Оцінювачем максимальної ймовірності (MLE). Таким чином, якщо ви вважаєте відповідним рівномірним попереднє значення в пробовідбірнику ABC, то ви можете створити приблизний зразок заднього розподілу, MAP якого збігається з MLE. Решта крок складається з оцінки цього режиму. Ця проблема обговорювалася в резюме, наприклад, в "Обчислювально ефективній оцінці багатоваріантного режиму" .

Іграшковий приклад

Нехай бути вибірка з N ( М , 1 ) і припустимо , що тільки інформація , отримана від цього зразка ˉ х = 1(x1,...,xn)N(μ,1). Нехайρ- евклідова метрика вRіϵ=0,001. Наступний код R показує, як отримати приблизний MLE, використовуючи описані вище методи, використовуючи модельований зразок зn=100таμ=0, зразок заднього розподілу розміром1000, рівномірний доμна(-0,3,0,3), і оцінювач щільності ядра для оцінки режиму заднього зразка (MAP = MLE).x¯=1nj=1nxjρRϵ=0.001n=100μ=01000μ(0.3,0.3)

rm(list=ls())

# Simulated data
set.seed(1)
x = rnorm(100)

# Observed statistic
T0=mean(x)

# ABC Sampler using a uniform prior 

N=1000
eps = 0.001
ABCsamp = rep(0,N)
i=1

while(i<N+1){
u = runif(1,-0.3,0.3)
t.samp = rnorm(100,u,1)
Ts = mean(t.samp)
if(abs(Ts-T0)<eps){
ABCsamp[i]=u
i=i+1
print(i)
}
}

# Approximation of the MLE
kd = density(ABCsamp)
kd$x[which(kd$y==max(kd$y))]

Як ви бачите, використовуючи невеликий допуск, ми отримуємо дуже хороший наближення MLE (який у цьому тривіальному прикладі можна обчислити зі статистики, враховуючи, що він достатній). Важливо зауважити, що вибір підсумкової статистики має вирішальне значення. Квантування зазвичай є хорошим вибором для підсумкової статистики, але не всі варіанти дають гарне наближення. Може статися так, що підсумкова статистика не є дуже інформативною, і тоді якість наближення може бути поганою, що добре відомо в спільноті ABC.

Оновлення: подібний підхід нещодавно опублікований у Fan et al. (2012 р . ) . Дивіться цей запис для обговорення на папері.


2
(+1) Зазначення правильного результату щодо взаємозв'язку між MLE та MAP та попередження в останньому абзаці (серед інших причин). Щоб зробити це попередження більш явним, цей (або будь-який!) Підхід невдало закінчиться, якщо статистика є допоміжною або майже такою. Можна розглянути ваш приклад іграшки та , наприклад. T=i(XiX¯)2
кардинал

1
+1 @procrastinator Я збирався просто сказати: так, ви можете використовувати достатню статистику, якщо вони доступні для вашої моделі. Але ваші обширні відповіді, схоже, накрили це.
Майкл Р. Черник

Одне з простих запитань, ви згадуєте, що попередній формат повинен містити MLE в його підтримці. Але MLE - випадкова величина, яка обмежена лише стохастично, тобто вона може бути поза будь-яким обмеженим набором з позитивною ймовірністю.
mpiktas

1
@mpiktas Для конкретного зразка ви повинні вибрати відповідну опору уніформи до попереднього. Це може змінитися, якщо ви зміните зразок. Важливо зауважити, що це не байєсівська процедура, ми просто використовуємо її як числовий метод, тому грати з вибором попереднього немає проблем. Чим менша підтримка попередньої, тим краще. Це збільшило б швидкість пробовідбору ABC, але коли ваша інформація розпливчаста в тому сенсі, що у вас немає надійної підказки про те, де розташований MLE, вам може знадобитися більша підтримка (і ви заплатите ціну).

@mpiktas У прикладі іграшок ви можете використовувати, наприклад, уніформу, попередню з підтримкою на або уніформу перед підтримкою ( 0,1 , 0,15 ), отримуючи ті самі результати, але з надзвичайно різними рівнями прийняття. Вибір цієї підтримки є спеціальним, і неможливо придумати загальне призначення, враховуючи, що MLE не є стохастично обмеженим, як ви зазначаєте. Цей вибір може розглядатися як важіль методу, який необхідно коригувати у кожному конкретному випадку. (1000000,1000000)(0.1,0.15)

5

Все залежить від того, відомий спільний розподіл тих 's чи ні. Якщо це, наприклад, ( T 1 , , T k ) g ( t 1 , , t k | θ , n ), то ви можете провести максимальну оцінку ймовірності на основі цього спільного розподілу. Зауважте, що, якщо ( T 1 , , T k ) недостатньо, це майже завжди буде інша максимальна ймовірність, ніж при використанні необроблених даних (Ti

(T1,,Tk)g(t1,,tk|θ,n)
(T1,,Tk)(X1,,Xn)

g


1

Максимальна ймовірність (частота) - така:

F

l(θ|T)=exp(ψ(θ)+T,ϕ(θ)),
,Tψ()ϕ() є безперервними удвічі диференційованими.

Те, як ви фактично максимізуєте ймовірність, залежить, головним чином, від можливості записати ймовірність аналітично прослідковим чином. Якщо це можливо, ви зможете розглянути загальні алгоритми оптимізації (ньютон-рафсон, симплекс ...). Якщо у вас немає простежуваної ймовірності, вам може бути легше обчислити умовне очікування, як в алгоритмі ЕМ, який також дасть максимальну оцінку ймовірності за досить доступних гіпотез.

Найкраще


Для проблем, які мене цікавлять, аналітична простежуваність неможлива.
mpiktas

The reason for non-tractability then conditions the optimization scheme. However, extensions of the EM usually allow to get arround most of these reasons. I don"t think I can be more specific in my suggestions without seeing the model itself
julien stirnemann
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.