Доведення того, що коефіцієнти в моделі OLS відповідають t-розподілу з (nk) ступенем свободи


29

Фон

Припустимо, у нас є модель звичайних найменших квадратів, де у нашій регресійній моделі є k коефіцієнти,

y=Xβ+ϵ

деβ є (k×1) вектор коефіцієнтів, X являє собою матрицю конструкції визначається

X=(1x11x12x1(k1)1x211xn1xn(k1))
а похибки IID нормальні,
ϵN(0,σ2I).

Ми мінімізуємо суму-на-квадратних помилок, встановивши наші оцінки для β бути β = ( X T X ) - 1 X T Y

β^=(XTX)1XTy.

Незміщеної оцінкою σ2 поза

s2=yy^2np
, де уХ β (вих).y^Xβ^

Коваріація рβ^ задається , де З( Х Т Х ) - 1 ( вих ).

Cov(β^)=σ2C
C(XTX)1

Питання

Як я можу довести , що для β я , β я - β яβ^i дет

β^iβisβ^itnk
є т-розподіл з(п-до)ступенів свободи, і стандартна помилка р я оцінюється з β я =stnk(nk)β^i .sβ^i=scii

Мої спроби

Я знаю, що для випадкових величин, відібраних з x N ( μ , σ 2 ) , можна показати, що ˉ x - μnxN(μ,σ2) , переписавши LHS як ( ˉ x -μ

x¯μs/ntn1
і розуміючи, що чисельник є звичайним нормальним розподілом, а знаменник - квадратним коренем Chi-квадратного розподілу з df = (n-1) і ділиться на (n-1) (ref). Отже, з цього випливає t-розподіл з df = (n-1) (ref).
(x¯μσ/n)s2/σ2

Я не зміг донести цей доказ до свого питання ...

Будь-які ідеї? Мені відомо це питання , але вони цього прямо не підтверджують, вони просто дають правило, кажучи, що "кожен прогноктор коштує вам певної свободи".


Оскільки β я є лінійною комбінацією спільно нормальних змінними, вона має нормальний розподіл. Тому все , що потрібно зробити є (1) встановити , що E ( β я ) = β я ; (2) показують , що їв 2 β я є несмещенной оцінкою Var ( β яβ^iЕ(β^i)=βiсβ^i2 ; і (3) показуютьступеня свободи в S β я є п - K . Останнє було доведено на цьому сайті в декількох місцях, таких якВар(β^i)сβ^iн-кstats.stackexchange.com/a/16931 . Я підозрюю, що ви вже знаєте, як це робити (1) і (2).
whuber

Відповіді:


32

Так як р ми знаємощо β -β~N(0,σ2(ХТХ)-1) ітаким чиномми знаємощо для кожного компонентадопро р , β k-βkN(0,σ2Skk)

β^=(ХТХ)-1ХТY=(ХТХ)-1ХТ(Хβ+ε)=β+(ХТХ)-1ХТε
β^-βN(0,σ2(ХТХ)-1)
кβ^
β^к-βкN(0,σ2Sкк)
де - k- й діагональний елемент ( X T X ) - 1 . Таким чином, ми знаємо , що г K = β до - β KSкккго(ХТХ)-1
zк=β^к-βкσ2SккN(0,1).

Візьміть до уваги твердження Теореми про розподіл ідентичної потужної квадратичної форми у стандартному нормальному векторі (теорема В.8 в Ґріні):

Якщо і A симетричний і ідентичний, то x T A x розподіляється χ 2хN(0,Я)АхТАхχν2νА

Нехай ε позначить регресійний залишковий вектор , і нехай M = I п - X ( X T X ) - 1 X T , яка є матрицею залишкового виробника (тобто M уε^

М=Ян-Х(ХТХ)-1ХТ,
Му=ε^М

с2=ε^Тε^н-p
σ2

Потім нам потрібно зробити лінійну алгебру. Зверніть увагу на ці три властивості лінійної алгебри:

  • Ранг ідентифікованої матриці - це її слід.
  • Тр(А1+А2)=Тр(А1)+Тр(А2)
  • Тр(А1А2)=Тр(А2А1)А1н1×н2А2н2×н1

звання(М)=Тр(М)=Тр(Ян-Х(ХТХ)-1ХТ)=Тр(Ян)-Тр(Х(ХТХ)-1ХТ))=Тр(Ян)-Тр((ХТХ)-1ХТХ))=Тр(Ян)-Тр(Яp)=н-p

V=(н-p)с2σ2=ε^Тε^σ2=(εσ)ТМ(εσ).

Vχн-p2

εβ^ε^с2ε^с2β^zкV

тк=zкV/(н-p)
н-pттктн-p

Потім він може бути алгебраїчно маніпульований у більш звичній формі.

тк=β^к-βкσ2Sкк(н-p)с2σ2/(н-p)=β^к-βкSккс2=β^к-βкс2Sкк=β^к-βкse(β^к)

Theorem for the Distribution of an Idempotent Quadratic Form in a Standard Normal VectorАА=(1100)х12+х1х2

1
АМ

1
АА(х1,х2)х12+х1х2А=(11/21/20) чого немає
whuber

1
ϵN(0,σ2)β^ϵ^

1
β^ε^β^=β+(ХХ)-1Хεε^=МεКов(β^,ε^)=0p×н
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.