Ви, напевно, думаєте про два зразки t тесту, оскільки це найчастіше перше місце, коли приходить розподіл t . Але на самому ділі все а t засіб тестування є те , що розподіл посилання для тестової статистики є t розподілом. Якщо Z∼N(0,1) і S2∼χ2d при Z і S2 незалежні, то
ZS2/d−−−−√∼td
за визначенням. Я пишу це, щоб підкреслити, щорозподіл
t- це лише ім'я, яке було надано розподілу цього співвідношення, оскільки воно виходить багато, і все, що має форму, матиме
tрозподіл. Для двох вибіркових тестів це співвідношення з'являється, оскільки під нульовою різницею середніх значень є нульовий середній гаусс, а оцінка дисперсії для незалежних гауссів - незалежна
χ2(незалежність може бути показана через
теорему Басу який використовує той факт, що стандартна оцінка дисперсії в зразку Гаусса є допоміжною середньою сукупністю, тоді як середня вибірка повна і достатня для тієї самої кількості).
За допомогою лінійної регресії ми в основному отримуємо те саме. У векторній β^∼N(β,σ2(XTX)−1) . Нехай S2j=(XTX)−1jj і припустимо, що предиктори X є невипадковими. Якби ми знали σ2 ми матимемо
& beta ; J - 0
під нулемH0:βj=0,щоб ми насправді мали тест Z. Але коли ми оцінюємоσ2микінцевому підсумку зχ2випадковою величиноющо при наших припущеннях нормальності, виявляється незалежними від нашої статистики бети Jа потім ми отримуємот
β^j−0σSj∼N(0,1)
H0:βj=0σ2χ2β^jt розподіл.
Ось деталі цього: припустимо, . Нехай H = X ( X T X ) - 1 X T - матриця капелюхів, у яких
‖ e ‖ 2 = ‖ ( I - H ) y ‖ 2 = y T ( I - H ) y . H ідентичний, тому ми маємо справді приємний результат
y∼N(Xβ,σ2I)H=X(XTX)−1XT
∥e∥2=∥(I−H)y∥2=yT(I−H)y.
H
з нецентральним параметром
δ = β T X T ( I - H ) X β = β T ( X T X - X T X ) β = 0 , тому насправді це центральний
χ 2 з
n - pyT(I−H)y/σ2∼χ2n−p(δ)
δ=βTXT(I−H)Xβ=βT(XTX−XTX)β=0χ2n−p ступенями свободи (це особливий випадок
теореми Кокрана ). Я використовую
щоб позначити кількість стовпців
X , тож якщо один стовпець
X дає перехоплення, то у нас буде
p - 1 непередбачених провідників. Деякі автори використовують
p як кількість передбачувачів, що не перехоплюють, тому іноді ви можете побачити щось на зразок
n - p - 1 у ступенях свободи, але все одно.
pXXp−1pn−p−1
Результатом цього є те, що , так що σ 2 : = 1E(eTe/σ2)=n−pчудово працює як оцінювачσ2.σ^2:=1n−peTeσ2
Це означає , що
β J
β^jσ^Sj=β^jSjeTe/(n−p)−−−−−−−−−−√=β^jσSjeTeσ2(n−p)−−−−−−√
- відношення стандартного гаусса до ква, поділеного на його ступеня свободи. Щоб закінчити це, нам потрібно показати незалежність, і ми можемо використовувати наступний результат:
Результат: для і матриць A і B в R l × k і R m × k відповідно, A Z і B Z є незалежними тоді і тільки тоді, коли A Σ B T = 0 (це вправа 58 (b) у главі 1 Математичної статистики Джуна Шао ).Z∼Nk(μ,Σ)ABRl×kRm×kAZBZAΣBT=0
Ми маємо β = ( X T X ) - 1 X Т у і е = ( Я - Н ) у , де у ~ N ( X β , сг 2 I ) . Це означає
( X T X ) - 1 X T ⋅ σ 2 I ⋅ ( I - H ) T = σ 2β^=(XTX)−1XTye=(I−H)yy∼N(Xβ,σ2I)
так & beta ; ⊥е, іотже , & beta ; ⊥ е Т е.
(XTX)−1XT⋅σ2I⋅(I−H)T=σ2((XTX)−1XT−(XTX)−1XTX(XTX)−1XT)=0
β^⊥eβ^⊥eTe
Результатом є тепер ми знаємо
, бета J
за бажанням (при всіх вищевказаних припущень).
β^jσ^Sj∼tn−p
C=(AB)(l+m)×kAB
CZ=(AZBZ)∼N((AμBμ),CΣCT)
CΣCT=(AB)Σ(ATBT)=(AΣATBΣATAΣBTBΣBT).
CZ is a multivariate Gaussian and it is a well-known result that two components of a multivariate Gaussian are independent if and only if they are uncorrelated, so the condition
AΣBT=0 turns out to be exactly equivalent to the components
AZ and
BZ in
CZ being uncorrelated.
□