Фон
Припустимо, у нас є модель звичайних найменших квадратів, де у нашій регресійній моделі є k коефіцієнти,
y=Xβ+ϵ
деβ є (k×1) вектор коефіцієнтів, X являє собою матрицю конструкції визначається
X=⎛⎝⎜⎜⎜⎜⎜⎜11⋮1x11x21xn1x12…⋱………x1(k−1)⋮⋮xn(k−1)⎞⎠⎟⎟⎟⎟⎟⎟
а похибки IID нормальні,
ϵ∼N(0,σ2I).
Ми мінімізуємо суму-на-квадратних помилок, встановивши наші оцінки для β бути
β = ( X T X ) - 1 X T Y
β^=(XTX)−1XTy.
Незміщеної оцінкою σ2 поза
s2=∥y−y^∥2n−p
,
де
у ≡Х β (
вих).
y^≡Xβ^
Коваріація рβ^ задається
,
де З ≡ ( Х Т Х ) - 1 ( вих ).
Cov(β^)=σ2C
C≡(XTX)−1
Питання
Як я можу довести , що для β я ,
β я - β яβ^i
дет
β^i−βisβ^i∼tn−k
є т-розподіл з
(п-до)ступенів свободи, і стандартна помилка
р я оцінюється
з β я =s √tn−k(n−k)β^i .
sβ^i=scii−−√
Мої спроби
Я знаю, що для випадкових величин, відібраних з x ∼ N ( μ , σ 2 ) , можна показати, що
ˉ x - μnx∼N(μ,σ2)
, переписавши LHS як
( ˉ x -μ
x¯−μs/n−−√∼tn−1
і розуміючи, що чисельник є звичайним нормальним розподілом, а знаменник - квадратним коренем Chi-квадратного розподілу з df = (n-1) і ділиться на (n-1) (
ref). Отже, з цього випливає t-розподіл з df = (n-1) (
ref).
(x¯−μσ/n√)s2/σ2−−−−−√
Я не зміг донести цей доказ до свого питання ...
Будь-які ідеї? Мені відомо це питання , але вони цього прямо не підтверджують, вони просто дають правило, кажучи, що "кожен прогноктор коштує вам певної свободи".