Упередження оцінок максимальної ймовірності для логістичної регресії


10

Я хотів би зрозуміти пару фактів щодо максимальної оцінки ймовірності (MLE) для логістичних регресій.

  1. Чи правда, що загалом MLE для логістичної регресії є упередженим? Я б сказав «так». Я знаю, наприклад, що розмір вибірки пов'язаний з асимптотичним зміщенням MLE.

    Чи знаєте ви якісь елементарні приклади цього явища?

  2. Якщо MLE упереджений, чи правда, що матриця коваріації MLE є оберненою від гессіана функції максимальної ймовірності?

    редагувати : я зустрічався з цією формулою досить часто і без жодних доказів; мені здається досить довільним вибором.

Відповіді:


15

Розглянемо просту модель бінарної логістичної регресії з бінарною залежною змінною та лише постійною та двійковим регресором T.

Pr(Yi=1Ti=1)=Λ(α+βTi)
де - логістичний cdf, .ΛΛ(u)=[1+exp{u}]1

У формі Logit у нас є

ln(Pr(Yi=1Ti=1)1Pr(Yi=1Ti=1))=α+βTi

У вас є зразок розміру . Позначимо кількість спостережень, де і ті, де , а . Розглянемо наступні розрахункові умовні ймовірності:nn1Ti=1n0Ti=0n1+n0=n

Pr^(Y=1T=1)P^1|1=1n1Ti=1yi

Pr^(Y=1T=0)P^1|0=1n0Ti=0yi

Тоді ця сама основна модель забезпечує рішення закритого формату для оцінювача ML:

α^=ln(P^1|01P^1|0),β^=ln(P^1|11P^1|1)ln(P^1|01P^1|0)

БІАС

Хоча і є неупередженими оцінками відповідних ймовірностей, MLE є упередженими, оскільки нелінійна логарифмічна функція стає на шляху - уявіть, що відбувається з більш складними моделями , з більш високим ступенем нелінійності.P^1|1P^1|0

Але, як асимптотично, зміщення зникає, оскільки оцінки ймовірності послідовні. Вставляючи безпосередньо оператор всередині очікуваного значення та логарифму, у нас є lim

limnE[α^]=E[ln(limnP^1|01P^1|0)]=E[ln(P1|01P1|0)]=α

і аналогічно для . β

МАРТІЯ ВАРІАНСНО-ПОКРИТТЬОГО МЛЕ
У вищенаведеному простому випадку, який забезпечує вирази закритої форми для оцінювача, можна, принаймні в принципі, продовжувати та отримувати його точний розподіл кінцевих вибірок, а потім обчислювати його точну кінцеву дисперсію-коваріантну матрицю вибірки . Але загалом MLE не має рішення закритої форми. Тоді ми вдаємось до послідовної оцінки асимптотичної матриці дисперсії-коваріації, яка справді (від'ємна) зворотна Гессі функція вірогідності журналу вибірки, оцінена в MLE. І тут взагалі немає "довільного вибору", але це є результатом асимптотичної теорії та асимптотичних властивостей MLE (послідовність та асимптотична нормальність), що говорить нам про те, що для , θ0=(α,β)

n(θ^θ0)dN(0,(E[H])1)

де - гессієць. Приблизно і для (великих) кінцевих зразків це призводить нас доH

Var(θ^)1n(E[H])11n(1nH^)1=H^1
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.