Опущені змінні зміщення в логістичній регресії порівняно з опущеними змінними зміщеннями в звичайній регресії найменших квадратів


17

У мене є питання про опущені змінні зміщення в логістичній та лінійній регресії.

Скажімо, я опускаю деякі змінні з лінійної регресійної моделі. Прикиньте, що ці опущені змінні не співвідносяться зі змінними, які я включив у свою модель. Ці опущені змінні не зміщують коефіцієнтів у моїй моделі.

Але в рамках логістичної регресії я просто дізнався, що це неправда. Пропущені змінні зміщуватимуть коефіцієнти включених змінних, навіть якщо опущені змінні не співвідносяться із включеними змінними. Я знайшов статтю на цю тему, але не можу скласти ні голови, ні хвостів.

Ось папір та деякі слайди Powerpoint.

Вперед, мабуть, завжди до нуля. Хтось може пояснити, як це працює?


Чи знайомі ви з тим, як модель логістичної регресії виходить із основної лінійної регресійної моделі "прихованої змінної"?
Алекос Пападопулос

@AlecosPapadopoulos Я ніколи не є. Яка страва?
Олексій

Є й інші статті, які обговорюють це, але ту, з якою ви пов’язані, - це найпростіше, що я знаю. Тому я не думаю, що я можу вдосконалити це.
Maarten Buis

Шановний пане Пападопулос: Я читав ідею про приховану змінну. Чому Ви запитуєте?
ConfusedEconometricsUndergrad

@ Alexis Дивіться, наприклад, цю публікацію, stats.stackexchange.com/questions/80611/… та статтю у wikipedia, en.wikipedia.org/wiki/… . Цей підхід уточнює також, що саме припущення, яке ми робимо на основі помилки основної моделі, визначає, яку модель ми отримаємо на рівні ймовірностей. Для іншого прикладу, якщо припустити, що основна помилка слідує за рівномірною, отримуємо лінійну модель ймовірності, див., Stats.stackexchange.com/questions/81789
Papadopoulos

Відповіді:


20

Випадок "зміщення ослаблення" може бути більш чітко представлений, якщо ми вивчимо модель "пробіт", але результат також перейде до логістичної регресії.

Під моделями умовної ймовірності (логістичні (логіт), “пробіт” та “лінійна ймовірність”) ми можемо постулювати приховану (непомітну) лінійну регресійну модель:

y=Xβ+u

де - суцільна непомітна змінна (а X - матриця регресора). Припускається, що термін помилки не залежить від регресорів і слідкує за розподілом, який має симетричну навколо нуля щільність , а в нашому випадку - звичайне нормальне розподіл F U ( u ) = Φ ( u ) .yXFU(u)=Φ(u)

Ми припускаємо , що то , що ми спостерігаємо, тобто бінарна змінна є функцією Індикатор ненаблюдаемой у * :yy

y=1ify>0,y=0ify0

Тоді ми запитуємо "яка ймовірність того, що прийме значення 1, задане регресорами?" (тобто ми дивимося на умовну ймовірність). Цеy1

P(y=1X)=P(y>0X)=P(Xβ+u>0X)=P(u>XβX)=1Φ(Χβ)=Φ(Xβ)

остання рівність через "відбиваючу" властивість стандартної функції кумулятивного розподілу, яка походить від симетрії функції щільності навколо нуля. Зауважимо, що хоча ми припускали, що не залежить від X , умова на X потрібна для того, щоб розглянути величину X β як не випадкову.uXXXβ

Якщо припустити, що , то отримаємо теоретичну модельXβ=b0+b1X1+b2X2

(1)P(y=1X)=Φ(b0+b1X1+b2X2)

Нехай тепер не залежить від X 1 і помилково виключається із специфікації основної регресії. Отже, уточнюємоX2X1

Далі припустимо, що X 2 також є нормальною випадковою величиною X 2N ( μ 2 , σ 2 2 ) . Але це означає, що це

y=b0+b1X1+ϵ
X2X2N(μ2,σ22)

ϵ=u+b2X2N(b2μ2,1+b22σ22)

через закриття-недоповнення нормального розподілу (і припущення про незалежність). Застосовуючи ту ж логіку, що і раніше, тут ми маємо

P(y=1X1)=P(y>0X1)=P(b0+b1X1+ϵ>0X1)=P(ϵ>b0b1X1X1)

Стандартизація змінної насϵ

P(y=1X1)=1P(ϵb2μ21+b22σ22(b0+b2μ2)1+b22σ22b11+b22σ22X1X1)

(2)P(y=1X1)=Φ((b0+b2μ2)1+b22σ22+b11+b22σ22X1)

(1)(2)

Наведений вище теоретичний вираз говорить про те, де наша максимальна ймовірністьб1збирається сходитись, оскільки вона залишається послідовною оцінкою, в тому сенсі, що вона сходиться до теоретичної величини, яка дійсно існує в моделі (і, звичайно, не в тому сенсі, що вона знайде "правду" в будь-якому випадку) :

б^1pб11+б22σ22|б^1|<|б1|

що є результатом "упередженості до нуля".

Ми використовували модель probit, а не logit (логістична регресія), оскільки лише за нормальності ми можемо отримати розподіл ϵ. The logistic distribution is not closed under addition. This means that if we omit a relevant variable in logistic regression, we also create distributional misspecification, because the error term (that now includes the omitted variable) no longer follows a logistic distribution. But this does not change the bias result (see footnote 6 in the paper linked to by the OP).

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.