Що таке ідентифікація моделі?


38

Я знаю, що за моделлю, яка не може бути ідентифікована, дані можна сказати, що вони генеруються безліччю різних призначень параметрів моделі. Я знаю, що іноді можливо обмежити параметри так, щоб усі були ідентифікованими, як у прикладі в Cassella & Berger 2nd ed, розділ 11.2.

З огляду на конкретну модель, як я можу оцінити, визначити чи ні?

Відповіді:


45

Для ідентифікації ми говоримо про параметр (який може бути вектором), який розміщується на просторі параметрів , та сімейство розподілів (для простоти, думаю, PDF-файли), індексовані які ми зазвичай пишемо щось на кшталт . Наприклад, може бути і може бутиΘ θ { f θ |θΘθθ θ = β f{fθ|θΘ}θθ=βf

fθ(х)=1βе-х/β, х>0, β>0,
що означатиме, що . Для того, щоб модель була ідентифікованою, перетворення, яке відображає в повинно бути однозначним . З огляду на модель на колінах, найпростіший спосіб перевірити це - почати з рівняння , (ця рівність повинна дотримуватися для (майже) всіх у підтримка ) і спробувати використовувати алгебру (або який - або інший аргумент) , щоб показати , що саме таке рівняння означає , що, насправді, .θ f θΘ=(0,)θfθ xfθ1=fθ2хθ1=θ2

Якщо вам вдасться досягти цього плану, то ваша модель може бути ідентифікована; продовжуйте свою справу. Якщо ви цього не зробите, то або вашу модель не можна ідентифікувати, або вам потрібно знайти інший аргумент. Інтуїція однакова, незалежно від того, що в ідентифікуючій моделі неможливо за двома різними параметрами (які можуть бути векторами) породжувати ту саму функцію ймовірності.

Це має сенс, тому що якщо для фіксованих даних два унікальних параметра породили однакову ймовірність, то неможливо було б розрізнити два параметри-кандидата, що базуються лише на даних. У цьому випадку неможливо було б визначити справжній параметр.

Для наведеного вище прикладу рівняння є для (майже) всіх . Якщо ми візьмемо журнали обох сторін, отримаємо для , що означає лінійну функцію дорівнює (майже) однаково нулю. Єдина лінія, яка робить таке, - це нахил 0 і y-перехоплення нуля. Сподіваємось, ви зможете побачити решту. 1fθ1=fθ2x>0-ln

1β1е-х/β1=1β2е-х/β2,
х>0 x>0-(1
-lnβ1-хβ1=-lnβ2-хβ2
х>0
-(1β1-1β2)х-(lnβ1-lnβ2)

До речі, якщо ви можете сказати, подивившись на свою модель, що її не можна ідентифікувати (іноді можна), то звичайно вводити на неї додаткові обмеження, щоб зробити її ідентифікованою (як ви згадали). Це схоже на визнання , що функція не один-до-одного для в , але це один-до-одного , якщо обмежити , щоб брехня всередині . У більш складних моделях рівняння жорсткіші, але ідея така ж. y [ - 1 , 1 ] y [ 0 , 1 ]f(у)=у2у[-1,1]у[0,1]


2
(+1) Приємне, всеосяжне, глибоке пояснення. Аналогії, які ви проводите, роблять поняття зрозумілими.
кардинал

Ви напевно відповіли на запитання, яке я задав, але я занадто новачок, щоб справді зрозуміти вашу відповідь. Якщо ви знаєте пояснення, що краще для новачка, будь ласка, повідомте мене про це.
Джек Таннер

1
@cardinal, спасибі До Джека, добре, я бачу. Як щодо цього: якщо є щось вище, що ще не зрозуміло, і якщо ви вказуєте на це мені, то я можу спробувати розібрати його ще трохи. Або, якщо ви хочете, ви можете написати ще одне запитання, яке вимагає пояснення "мирянина" або прикладів цих ідей. Я думаю, що справедливо сказати, що ідентифікація - це тема, яка зазвичай виникає після типового вступного періоду навчання, тому, якщо ви хочете надати певний контекст, чому ви зараз стикаєтесь, це може допомогти потенційним відповідачам.

2
+1, приємна відповідь. Можливо, варто вказати на один класичний, і легким для прикладу невпізнанної моделі є необмежена версія ANOVA: Щоб виправити це, кодування опорної комірки є зазвичай використовують, де середнє значення одного рівня встановлюється як опорне (яке оцінюється перехопленням), а величина середнього значення не явно оцінюється.
уij=мк+α1+α2++αк+εi
gung - Відновіть Моніку

23

Один із способів - перевірити коваріаційну матрицю ваших оцінок параметрів. Якщо дві оцінки параметрів ідеально (приблизно) співвідносяться одна з одною або одна оцінка параметра є (приблизно) лінійною комбінацією кількох інших, то ваша модель не ідентифікується; параметри, які є функціями інших, не потрібні. У кожному з цих випадків також буде (приблизно) одниною. Отже, якщо є приблизно сингулярним, це може стати причиною турбуватися з питань ідентифікації. (Хоча я не думаю, що це виявило б нелінійні зв’язки між оцінками параметрів, які могли б спричинити неідентифікацію).Σ ΣΣΣΣ

Практична проблема полягає в тому, що часто важко обчислити для навіть м'яко складних моделей.Σ

Якщо ви робите проблему з максимальною ймовірністю, то ви знаєте, що асимптотична матриця коваріації ваших оцінок дорівнює оберненій інформації про рибалки, оціненій в MLE. Отже, перевірка матриці інформації рибалки на (приблизну) сингулярність також є розумним способом оцінки ідентифікованості. Це також працює, коли теоретичну інформацію про рибалки важко обчислити, оскільки часто можна дуже точно числово наблизити послідовний оцінювач інформаційної матриці рибалки, наприклад, оцінивши очікуваний зовнішній добуток функції балів за спостережуваним середнім зовнішнім продуктом .

У вас не виникає проблем з ML, тоді, можливо, вам вдасться отримати ручку на , імітуючи дані з моделі та оцінюючи параметри у великій кількості разів та обчислюючи матрицю зразкової коваріації.Σ


2
(+1) Молодці. Я навіть не думав підходити до цього питання з того напрямку.

1
Однією з причин, що ідея про обчислення коваріаційної матриці на основі модельованих даних є особливо акуратною, полягає в тому, що слід моделювати ці дані, щоб зробити перевірку Кука-Гельмана-Рубіна .
Джек Таннер
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.