Якщо ви дійсно мали на увазі ймовірність журналу , то відповідь така: це не завжди дорівнює нулю.
Наприклад, розглянемо дані Пуассона: . Імовірність журналу для задається:
Y = ( y 1 , … , y n ) ℓ ( μ ; Y ) = - n ∑ i = 1 μ i + n ∑ i = 1 y i log μ i - n ∑ i = 1 логyi∼Poisson(μi),i=1,…,nY=(y1,…,yn)
ℓ(μ;Y)=−∑i=1nμi+∑i=1nyilogμi−∑i=1nlog(yi!).(∗)
Диференціюйте у відносно та встановіть його на (саме так ми отримаємо MLE для насиченої моделі):
Вирішіть це для щоб отримати , заміщення назад у для дає, що вірогідність журналу насиченої моделі становить:
якщо приймати дуже особливі значення.( ∗ ) μ i 0 - 1 + y iℓ(μ;Y)(∗)μi0μя μ я=уя μ я(*)μяℓ( μ ;Y)=п Σ я=1гя(увійтиуя-1)-п Σ я=1журнал(yi!)≠0yi
−1+yiμi=0.
μiμ^i=yiμ^i(∗)μiℓ(μ^;Y)=∑i=1nyi(logyi−1)−∑i=1nlog(yi!)≠0
yi
На сторінці довідки R
функції glm
під пунктом deviance
документ пояснює це питання наступним чином:
deviance
до постійної, мінус удвічі більше, ніж максимальна ймовірність журналу. Де розумна, константа вибирається таким чином, щоб насичена модель мала нульове відхилення.
Зауважте, що було зазначено, що відхилення замість логічності ймовірності насиченої моделі обрано рівним нулю.
Напевно, те, що ви насправді хотіли підтвердити, - це те, що " відхилення насиченої моделі завжди задається як нуль", що правда, оскільки відхилення, за визначенням (див. Розділ 4.5.1 категоричного аналізу даних (2-е видання) Алана Agresti) - це коефіцієнт ймовірності коефіцієнта ймовірності вказаного GLM до насиченої моделі. constant
Вище в документації R фактично двічі розгорнутий лог-правдоподібність насиченою моделі.
Що стосується вашої заяви "Тим не менш, спосіб надання формули відхилення говорить про те, що іноді ця кількість не дорівнює нулю", це, ймовірно, пов'язане з зловживанням використанням терміна " відхилення" . Так , наприклад, в R, відношення правдоподібності статистика порівняння два довільних (вкладені) моделей і також згадуються як девіації, який буде більш точно називається , як на різниці між девіацій з і девіації з , якщо уважно стежили за визначенням, викладеним у книзі Агресті.M 2 M 1 M 2M1M2M1M2
Висновок
Вірогідність журналу насиченої моделі взагалі не нульова.
Відхилення (за початковим визначенням) насиченої моделі дорівнює нулю.
Вихід відхилення від програмного забезпечення (наприклад, R) взагалі не нульовий, оскільки він насправді означає щось інше (різниця між відхиленнями).
Нижче наведено виведення для загального випадку сімейної експоненції та ще один конкретний приклад. Припустимо, дані надходять із експоненціальної родини (див. Сучасну прикладну статистику з S , глава ):
де відомі попередніми вагами, а - дисперсійним / масштабним параметром (для багатьох випадків, таких як біноміальний та Пуассон, цей параметр відомий, тоді як для інших випадків, таких як нормальний та гамма, цей параметр невідомий). Тоді ймовірність журналу задається через:
7
f(yi;θi,φ)=exp[Ai(yiθi−γ(θi))/φ+τ(yi,φ/Ai)].(1)
Aiφℓ(θ,φ;Y)=∑i=1nAi(yiθi−γ(θi))/φ+∑i=1nτ(yi,φ/Ai).
Як і в прикладі Пуассона, параметри насиченої моделі можна оцінити, вирішивши таку функцію
оцінки :
0=U(θi)=∂ℓ(θ,φ;Y)∂θi=Ai(yi−γ′(θi))φ
Позначимо рішення наведеного рівняння через , тоді загальною формою вірогідності журналу насиченої моделі (трактувати параметр шкали як постійну) є:
θ^i
ℓ(θ^,φ;Y)=∑i=1nAi(yiθ^i−γ(θ^i))/φ+∑i=1nτ(yi,φ/Ai).(∗∗)
У своїй попередній відповіді я неправильно зазначив, що перший додаток у правій частині завжди дорівнює нулю, наведений вище приклад даних Пуассона доводить, що це неправильно. Для більш складного прикладу розглянемо розподіл Gamma наведений у додатку.(∗∗)Γ(α,β)
Доказом першого терміна ймовірності насиченої гамма-моделі є ненульовий : Дано
спершу треба зробити репараметризацію, щоб мала форму експозиції сім'ї . Це можна перевірити, якщо дозволити
тоді має представлення:
де
f(y;α,β)=βαΓ(α)e−βyyα−1,y>0,α>0,β>0,
f(1)φ=1α,θ=−βα,
ff(y;θ,φ)=exp[θy−(−log(−θ))φ+τ(y,φ)],
τ(y,φ)=−logφφ+(1φ−1)logy−logΓ(φ−1).
Тому MLE насиченої моделі є . Отже,
якщо приймає дуже спеціальних значень.
θ^i=−1yi∑i=1n1φ[θ^iyi−(−log(−θ^i))]=∑i=1n1φ[−1−log(yi)]≠0,
yi