Припущення для отримання оцінки OLS


14

Чи може хтось коротко пояснити для мене, чому кожне з шести припущень потрібне для обчислення оцінки ОЛС? Я дізнався лише про мультиколінеарність - що якщо вона існує, ми не можемо інвертувати (X'X) матрицю і, в свою чергу, оцінити загальний оцінювач. А як щодо інших (наприклад, лінійність, нульові середні помилки тощо)?



1
Ви шукаєте концептуальне пояснення, чи вам потрібна математична демонстрація?
gung - Відновіть Моніку

4
Звичайні найменші квадрати - це числова процедура, для її обчислення не потрібно багато припущень (окрім незворотності). Припущення необхідні для обгрунтування висновку на основі цього, дивіться мою відповідь вчора: stats.stackexchange.com/questions/148803/…
kjetil b halvorsen

1
Точно про які «шість припущень» ви посилаєтесь? Ви згадуєте лише три.
whuber

Я маю на увазі 1) лінійність 2) відсутність мультиколінеарності 3) нульові середні помилки 4) сферичні помилки (гомоскедастичність та не автокореляція) 5) нестахастичні регресори та 6) нормальний розподіл. Отже, як я зрозумів з відповіді нижче, для отримання результату оцінки потрібні лише перші три, а інші потрібні лише для того, щоб переконатися, що Оцінювач є СВІТИМ?
Ієва

Відповіді:


23

Ви завжди можете обчислити оцінювач OLS, окрім випадків, коли у вас ідеальна мультиколінеарність. У цьому випадку у вас є ідеальна багатолінійна залежність у вашій матриці X. Отже, припущення про повний ранг не виконується, і ви не можете обчислити оцінювач OLS через проблеми з незворотністю.

Технічно вам не потрібні інші припущення OLS для обчислення оцінки OLS. Однак, згідно з теоремою Гаусса – Маркова, вам потрібно виконати припущення OLS (припущення щодо клімату), щоб ваш оцінювач був СУМИМ.

Ви можете знайти широке обговорення теореми Гаусса-Маркова та її математичного виведення тут:

http://economictheoryblog.com/2015/02/26/markov_theorem/

Крім того, якщо ви шукаєте огляд припущення про OLS, тобто скільки їх існує, що вони вимагають і що станеться, якщо ви порушите єдине припущення OLS, тут можна знайти розгорнуту дискусію:

http://economictheoryblog.com/2015/04/01/ols_assumptions/

Я сподіваюся, що це допомагає, ура!


14

Далі базується на простих перерізах, для часових рядів та панелей дещо відрізняється.

  1. У сукупності, а отже, у вибірці модель можна записати так: Це припущення про лінійність, яке іноді неправильно розуміється. Модель повинна бути лінійною в параметрах, а самеβk. Ви можете робити все, що завгодно, зсамимиxi. Журнали, квадрати тощо. Якщо це не так, то модель OLS не може бути оцінена - вам потрібен інший нелінійний оцінювач.
    Y=β0+β1x1++βkxk+u=Xβ+u
    βkxi
  2. Випадкова вибірка (для перерізів) Це потрібно для висновку та властивостей вибірки. Це чимось не має значення для чистої механіки OLS.
  3. Немає досконалої колінеарності Це означає, що між не може бути ідеальних відносин . Це припущення, яке гарантує, що ( X X ) є неоднорідним, таким, що ( X X ) - 1 існує.xi(XX)(XX)1
  4. Нульове умовне середнє: . Це означає, що ви правильно вказали модель таким чином: немає пропущених змінних, а функціональна форма, яку ви оцінили, є правильною щодо (невідомої) сукупності моделі. Це завжди проблематичне припущення щодо OLS, оскільки немає жодного способу дізнатися, чи дійсно воно дійсне чи ні.E(u|X)=0
  5. Різниця терміна помилок є постійною, умовною для всіх : V a r ( u | X ) = σ 2 Знову це нічого не означає для механіки OLS, але це гарантує, що звичайні стандартні помилки є дійсними.XiVar(u|X)=σ2
  6. Нормальність; термін помилки u не залежить від і випливає з u N ( 0 , σ 2 ) . Знову це не має значення для механіки OLS, але забезпечує нормальний розподіл вибірки β k , ^ β kXiuN(0,σ2)βk .βk^N(βk,Var(βk^))

Тепер про наслідки.

  1. У межах 1-6 (припущення класичної лінійної моделі) OLS є СВІТИМ (найкращий лінійний неупереджений оцінювач), найкращий у значенні найменшої дисперсії. Він також ефективний серед усіх лінійних оцінювачів, а також усіх оцінювачів, який використовує певну функцію x. Більш важливо, що під 1 - 6 OLS також є об'єктивним оцінкою мінімальної дисперсії. Це означає, що серед усіх неупереджених оцінювачів (не тільки лінійних) OLS має найменшу дисперсію. OLS також відповідає.

  2. У межах 1 - 5 (припущення Гаусса-Маркова) OLS є СУМОЮ та ефективною (як описано вище).

  3. У віці від 1 до 4 OLS є неупередженим та послідовним.

Насправді OLS також є послідовним, при слабшому припущенні, ніж а саме: ( 1 ) E ( u ) = 0 і ( 2)(4)(1) E(u)=0 . Відмінність від припущень 4 полягає в тому, що, згідно з цим припущенням, вам не потрібно ідеально розвивати функціональні відносини.(2) Cov(xj,u)=0


Думаю, ви намалюєте занадто темну картину про стан нульової середньої величини. Якби було зміщення, то мінімізація суми відхилень у квадраті не було б відповідною справою, але, з іншого боку, ви можете захопити зміщення, змістивши рівняння регресії (поглинаючи зміщення в ), а потім тиβ0 дійсно мають середню 0. іншими словами, 4 і неможливо , щоб перевірити і легко ігнорувати.
користувач3697176

Мені шкода, але я не згоден. А може, я просто нерозумію вас? Ви можете або допрацювати, або дати посилання.
Репмат

Я не говорю про навмисне спотворене оцінювання (наприклад, регресія хребта), яке, на мою думку, ОП не зацікавило. Я говорю про модель форми в якій --- з якоїсь дивної причини --- залишковий ϵ має середнє значення α 0 . У цьому випадку легко зробити формальне перетворення у y = αy=β0+β1x1++βxxn+ϵϵα0 , де середнє значення η дорівнює нулю. y=α+β0+β1x1++βxxn+ηη
користувач3697176

@ user3697176 Те, що ви пишете, не є правильним. Я щойно опублікував відповідь, щоб пояснити, чому.
Алекос Пападопулос

Якщо припущення 1 не задоволено, чи не можемо ми все-таки використовувати OLS для оцінки коваріації населення (хоча ми знаємо, що немає лінійної залежності)?
макс

7

Коментар до іншого питання викликав сумнів у важливості цієї умови , стверджуючи, що її можна виправити, включивши в специфікацію регресії постійний термін, і тому "його можна легко проігнорувати".E(uX)=0

Це не так. Включення постійного члена в регресію поглине можливо умовне середнє значення терміна помилки, якщо припустити, що це умовне середнє значення є вже постійною, а не функцією регресорів . Це найважливіше припущення, яке потрібно зробити незалежно від того, включаємо ми постійний термін чи ні:

E(uX)=const.

Якщо це має місце, то ненульове значення стає неприємністю, яку ми можемо просто вирішити, включивши постійний термін.

Але якщо це не дотримується (тобто, якщо умовне середнє значення не є нульовим або ненульовим постійним ), включення постійного терміна не вирішує проблему: те, що воно "поглине" в цьому випадку, є величиною це залежить від конкретного зразка та реалізацій регресорів. Насправді невідомий коефіцієнт, приєднаний до ряду одиниць, насправді не є постійним, а змінним, залежно від регресорів через непостійне середнє умовне значення помилки.

Що це означає? Для спрощення припустимо найпростіший випадок, де ( i індексує спостереження), але що E ( u ix i ) = h ( x iE(uiXi)=0i . Тобто, термін помилки є середньо незалежним від регресорів, за винятком сучасних (у X миневключаємо ряд одиниць).E(uixi)=h(xi)X

Припустимо, що ми задаємо регресію з включенням постійного члена (регресора ряду одиниць).

y=a+Xβ+ε

і ущільнення позначень

y=Zγ+ε

де , Z = [ 1 : X ] , γ = ( , & beta ; ) ' , ε = U - .a=(a,a,a...)Z=[1:X]γ=(a,β)ε=ua

Тоді буде оцінювач OLS

γ^=γ+(ZZ)1Zε

Для неупередженості нам потрібен . АлеE[εZ]=0

E[εixi]=E[uiaxi]=h(xi)a

which cannot be zero for all i, since we examine the case where h(xi) is not a constant function. So

E[εZ]0E(γ^)γ

and

If E(uixi)=h(xi)h(xj)=E(ujxj), then even if we include a constant term in the regression, the OLS estimator will not be unbiased, meaning also that the Gauss-Markov result on efficiency, is lost.

Moreover, the error term ε has a different mean for each i, and so also a different variance (i.e. it is conditionally heteroskedastic). So its distribution conditional on the regressors differs across the observations i.

But this means that even if the error term ui is assumed normal, then the distribution of the sampling error γ^γ will be normal but not zero-mean mormal, and with unknown bias. And the variance will differ. So

If E(uixi)=h(xi)h(xj)=E(ujxj), then even if we include a constant term in the regression, Hypothesis testing is no longer valid.

In other words, "finite-sample" properties are all gone.

We are left only with the option to resort to asymptotically valid inference, for which we will have to make additional assumptions.

So simply put, Strict Exogeneity cannot be "easily ignored".


I'm not completely sure I understand this. Isn't assuming that the mean is a not a function of the regressors equivalent to assuming homoscedasticity?
Batman

@Batman To what part of my post are you referring to?
Alecos Papadopoulos

When you say "The inclusion of a constant term in the regression will absorb the possibly non-zero conditional mean of the error term if we assume that this conditional mean is already a constant and not a function of the regressors. This is the crucial assumption that must be made independently of whether we include a constant term or not." Isn't assuming that the conditional mean isn't a function of the regressors exactly what we're assuming when we assume homoscedasticity?
Batman

@Batman Homoskedasticity is an assumption about the variance. Assuming mean -independence does not imply that E(uj2x) is also a constant, which is also needed for conditional homoskedasticity. In fact, mean-independence, E(ux)=const. together with conditional heteroskedasticity, E(u2x)=g(x) is a standard model variant.
Alecos Papadopoulos
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.