Коментар до іншого питання викликав сумнів у важливості цієї умови , стверджуючи, що її можна виправити, включивши в специфікацію регресії постійний термін, і тому "його можна легко проігнорувати".E(u∣X)=0
Це не так. Включення постійного члена в регресію поглине можливо умовне середнє значення терміна помилки, якщо припустити, що це умовне середнє значення є вже постійною, а не функцією регресорів . Це найважливіше припущення, яке потрібно зробити незалежно від того, включаємо ми постійний термін чи ні:
E(u∣X)=const.
Якщо це має місце, то ненульове значення стає неприємністю, яку ми можемо просто вирішити, включивши постійний термін.
Але якщо це не дотримується (тобто, якщо умовне середнє значення не є нульовим або ненульовим постійним ), включення постійного терміна не вирішує проблему: те, що воно "поглине" в цьому випадку, є величиною це залежить від конкретного зразка та реалізацій регресорів. Насправді невідомий коефіцієнт, приєднаний до ряду одиниць, насправді не є постійним, а змінним, залежно від регресорів через непостійне середнє умовне значення помилки.
Що це означає?
Для спрощення припустимо найпростіший випадок, де ( i індексує спостереження), але що E ( u i ∣ x i ) = h ( x iE(ui∣X−i)=0i . Тобто, термін помилки є середньо незалежним від регресорів, за винятком сучасних (у X миневключаємо ряд одиниць).E(ui∣xi)=h(xi)X
Припустимо, що ми задаємо регресію з включенням постійного члена (регресора ряду одиниць).
y=a+Xβ+ε
і ущільнення позначень
y=Zγ+ε
де , Z = [ 1 : X ] , γ = ( , & beta ; ) ' , ε = U - .a=(a,a,a...)′Z=[1:X]γ=(a,β)′ε=u−a
Тоді буде оцінювач OLS
γ^=γ+(Z′Z)−1Z′ε
Для неупередженості нам потрібен . АлеE[ε∣Z]=0
E[εi∣xi]=E[ui−a∣xi]=h(xi)−a
which cannot be zero for all i, since we examine the case where h(xi) is not a constant function. So
E[ε∣Z]≠0⟹E(γ^)≠γ
and
If E(ui∣xi)=h(xi)≠h(xj)=E(uj∣xj), then even if we include a constant term in the regression, the OLS estimator will not be unbiased, meaning also that the Gauss-Markov result on efficiency, is lost.
Moreover, the error term ε has a different mean for each i, and so also a different variance (i.e. it is conditionally heteroskedastic). So its distribution conditional on the regressors differs across the observations i.
But this means that even if the error term ui is assumed normal, then the distribution of the sampling error γ^−γ will be normal but not zero-mean mormal, and with unknown bias. And the variance will differ.
So
If E(ui∣xi)=h(xi)≠h(xj)=E(uj∣xj), then even if we include a constant term in the regression, Hypothesis testing is no longer valid.
In other words, "finite-sample" properties are all gone.
We are left only with the option to resort to asymptotically valid inference, for which we will have to make additional assumptions.
So simply put, Strict Exogeneity cannot be "easily ignored".