Випадок "зміщення ослаблення" може бути більш чітко представлений, якщо ми вивчимо модель "пробіт", але результат також перейде до логістичної регресії.
Під моделями умовної ймовірності (логістичні (логіт), “пробіт” та “лінійна ймовірність”) ми можемо постулювати приховану (непомітну) лінійну регресійну модель:
y∗=Xβ+u
де - суцільна непомітна змінна (а X - матриця регресора). Припускається, що термін помилки не залежить від регресорів і слідкує за розподілом, який має симетричну навколо нуля щільність , а в нашому випадку - звичайне нормальне розподіл F U ( u ) = Φ ( u ) .y∗XFU(u)=Φ(u)
Ми припускаємо , що то , що ми спостерігаємо, тобто бінарна змінна є функцією Індикатор ненаблюдаемой у * :yy∗
y=1ify∗>0,y=0ify∗≤0
Тоді ми запитуємо "яка ймовірність того, що прийме значення 1, задане регресорами?" (тобто ми дивимося на умовну ймовірність). Цеy1
P(y=1∣X)=P(y∗>0∣X)=P(Xβ+u>0∣X)=P(u>−Xβ∣X)=1−Φ(−Xβ)=Φ(Xβ)
остання рівність через "відбиваючу" властивість стандартної функції кумулятивного розподілу, яка походить від симетрії функції щільності навколо нуля. Зауважимо, що хоча ми припускали, що не залежить від X , умова на X потрібна для того, щоб розглянути величину X β як не випадкову.uXXXβ
Якщо припустити, що , то отримаємо теоретичну модельXβ=b0+b1X1+b2X2
P(y=1∣X)=Φ(b0+b1X1+b2X2)(1)
Нехай тепер не залежить від X 1 і помилково виключається із специфікації основної регресії. Отже, уточнюємоX2X1
Далі припустимо, що X 2 також є нормальною випадковою величиною X 2 ∼ N ( μ 2 , σ 2 2 ) . Але це означає, що це
y∗=b0+b1X1+ϵ
X2X2∼N(μ2,σ22)
ϵ=u+b2X2∼N(b2μ2,1+b22σ22)
через закриття-недоповнення нормального розподілу (і припущення про незалежність). Застосовуючи ту ж логіку, що і раніше, тут ми маємо
P(y=1∣X1)=P(y∗>0∣X1)=P(b0+b1X1+ϵ>0∣X1)=P(ϵ>−b0−b1X1∣X1)
Стандартизація змінної насϵ
P(y=1∣X1)=1−P⎛⎝⎜ϵ−b2μ21+b22σ22−−−−−−−√≤−(b0+b2μ2)1+b22σ22−−−−−−−√−b11+b22σ22−−−−−−−√X1∣X1⎞⎠⎟
⇒P(y=1∣X1)=Φ⎛⎝⎜(b0+b2μ2)1+b22σ22−−−−−−−√+b11+b22σ22−−−−−−−√X1⎞⎠⎟(2)
(1)(2)
Наведений вище теоретичний вираз говорить про те, де наша максимальна ймовірністьб1збирається сходитись, оскільки вона залишається послідовною оцінкою, в тому сенсі, що вона сходиться до теоретичної величини, яка дійсно існує в моделі (і, звичайно, не в тому сенсі, що вона знайде "правду" в будь-якому випадку) :
б^1→pб11 + б22σ22-------√⟹| б^1| < | б1|
що є результатом "упередженості до нуля".
Ми використовували модель probit, а не logit (логістична регресія), оскільки лише за нормальності ми можемо отримати розподіл ϵ. The logistic distribution is not closed under addition. This means that if we omit a relevant variable in logistic regression, we also create distributional misspecification, because the error term (that now includes the omitted variable) no longer follows a logistic distribution. But this does not change the bias result (see footnote 6 in the paper linked to by the OP).