Властивості логістичних регресій


17

Ми працюємо з деякими логістичними регресіями, і ми зрозуміли, що середня оцінена ймовірність завжди дорівнює частці одиниць у вибірці; тобто середнє значення пристосованих значень дорівнює середньому зразка.

Хтось може мені пояснити причину чи дати мені посилання, де я можу знайти цю демонстрацію?


2
Причиною цього є те, що логістична регресія намагається досягти саме цього: моделювання розподілу даних, включаючи попередні ймовірності ("середні значення"). Чи така поведінка небажана?
байерж

1
@bayer Нелінійність функції зв’язку вказує на це явище глибше, ніж ваша характеристика. Тут дійсно є що продемонструвати.
whuber

Ця властивість іноді називається калібруванням великого розміру, коли для оцінки ризику використовується логістична регресія.
липень

Відповіді:


26

Поведінка, яку ви спостерігаєте, є "типовим" випадком логістичної регресії, але не завжди відповідає дійсності. Він також має значно більшу загальність (див. Нижче). Це наслідок злиття трьох окремих фактів.

  1. Вибір моделювання лог-коефіцієнтів як лінійної функції предикторів,
  2. Використання максимальної ймовірності для отримання оцінок коефіцієнтів у моделі логістичної регресії та
  3. Включення в модель терміна перехоплення.

Якщо будь-якого з перерахованих вище немає, то середні оцінені ймовірності, як правило, не збігаються із співвідношенням у вибірці.

Однак (майже) все статистичне програмне забезпечення використовує оцінку максимальної ймовірності для таких моделей, тому на практиці пункти 1 і 2, по суті, завжди присутні, а пункт 3 зазвичай присутній, за винятком особливих випадків.

Деякі деталі

У типовій системі логістичної регресії ми спостерігаємо результат незалежних біноміальних випробувань з вірогідністю . Нехай y я - спостережувані відповіді. Тоді повна ймовірність L = n i = 1 p y i i ( 1 - p i ) 1 - y i = n i = 1 exp ( y i log ( p i / ( 1 - p ))piуi і тому ймовірність журналу дорівнює = n i = 1 y i log ( p i / ( 1 - p i ) ) + n i = 1 log ( 1 - p i )

L=i=1нpiуi(1-pi)1-уi=i=1ндосвід(уiжурнал(pi/(1-pi))+журнал(1-pi)),
=i=1нуiжурнал(pi/(1-pi))+i=1нжурнал(1-pi).

Тепер у нас є вектор предикторів для кожного спостереження, а з факту 1 вище модель логістичної регресії позиціонує цей log p iхi

журналpi1-pi=βТхi,
βpi=1/(1+е-βТхi)

/β=0

β=iуiхi-iхi1+досвід(-βТхi)=iуiхi-ipiхi,
iуiхi=ip^iхi,
p^i=(1+досвід(-β^Тхi))-1 в цьому випадку.

хijiiуiхij=iуi=ip^i і так емпіричне співвідношення позитивних відповідей відповідає середньому встановлені ймовірності.

Моделювання

R

x <- rnorm(100)
p <- 1/(1+exp(-3*x))
y <- runif(100) <= p
mean(y)
# Should be identical to mean(y)
mean( predict( glm(y~x, family="binomial"), type="response" ) )
# Won't be identical (usually) to mean(y)
mean( predict( glm(y~x+0, family="binomial"), type="response") )

Загальний випадок : як уже згадувалося вище, властивість, що середня реакція дорівнює середній прогнозованій середній, має набагато більшу загальність для класу узагальнених лінійних моделей, що відповідають максимальній вірогідності, використовуючи канонічну функцію зв'язку та включаючи перехоплення в модель.

Список літератури

Деякі хороші посилання на пов'язану теорію наступні.

  1. A. Agresti (2002), категоричний аналіз даних , 2-е видання, Wiley.
  2. P. McCullagh та JA Nelder (1989), Узагальнені лінійні моделі , 2-е видання, Chapman & Hall. (Текст оригінальних авторів загальних методів.)

4
+1 Ця демонстрація (специфічна для логістичної регресійної моделі, не намагаючись узагальнити всі ГЛМ), також наведена у Maddala (1983) Limited Depended and Quaitative Variables in Econometrics , pp. 25-26.
Стаск

@StasK: Дякую за додаткову довідку, з якою я не знайомий. Ура.
кардинал

@cardinal: Я не пам'ятаю, щоб Агресті обговорював це. Чи обговорюється це в МакКлала і Нелдера?
липень
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.