Розуміння t-тесту на лінійну регресію


17

Я намагаюся розробити тестування гіпотез на лінійній регресії (нульова гіпотеза не має кореляції). Кожен путівник і сторінка з теми, на яку я стикаюся, начебто використовують t-тест. Але я не розумію, що насправді означає t-тест на лінійну регресію. Т-тест, якщо я не маю абсолютно неправильного розуміння чи розумової моделі, використовується для порівняння двох груп. Але регресор і регрес і не є зразками подібних сукупностей і можуть навіть не бути однієї одиниці, тому порівнювати їх не має сенсу.

Отже, використовуючи t-тест на лінійній регресії, що ми насправді робимо?

Відповіді:


37

Ви, напевно, думаєте про два зразки t тесту, оскільки це найчастіше перше місце, коли приходить розподіл t . Але на самому ділі все а t засіб тестування є те , що розподіл посилання для тестової статистики є t розподілом. Якщо ZN(0,1) і S2χd2 при Z і S2 незалежні, то

ZS2/dtd
за визначенням. Я пишу це, щоб підкреслити, щорозподілt- це лише ім'я, яке було надано розподілу цього співвідношення, оскільки воно виходить багато, і все, що має форму, матимеtрозподіл. Для двох вибіркових тестів це співвідношення з'являється, оскільки під нульовою різницею середніх значень є нульовий середній гаусс, а оцінка дисперсії для незалежних гауссів - незалежнаχ2(незалежність може бути показана черезтеорему Басу який використовує той факт, що стандартна оцінка дисперсії в зразку Гаусса є допоміжною середньою сукупністю, тоді як середня вибірка повна і достатня для тієї самої кількості).

За допомогою лінійної регресії ми в основному отримуємо те саме. У векторній β^N(β,σ2(XTX)1) . Нехай Sj2=(XTX)jj1 і припустимо, що предиктори X є невипадковими. Якби ми знали σ2 ми матимемо & beta ; J - 0 під нулемH0:βj=0,щоб ми насправді мали тест Z. Але коли ми оцінюємоσ2микінцевому підсумку зχ2випадковою величиноющо при наших припущеннях нормальності, виявляється незалежними від нашої статистики бети Jа потім ми отримуємот

β^j0σSjN(0,1)
H0:βj=0σ2χ2β^jt розподіл.

Ось деталі цього: припустимо, . Нехай H = X ( X T X ) - 1 X T - матриця капелюхів, у яких e 2 = ( I - H ) y 2 = y T ( I - H ) y . H ідентичний, тому ми маємо справді приємний результат yN(Xβ,σ2I)H=X(XTX)1XT

e2=(IH)y2=yT(IH)y.
H з нецентральним параметром δ = β T X T ( I - H ) X β = β T ( X T X - X T X ) β = 0 , тому насправді це центральний χ 2 з n - p
yT(IH)y/σ2χnp2(δ)
δ=βTXT(IH)Xβ=βT(XTXXTX)β=0χ2np ступенями свободи (це особливий випадок теореми Кокрана ). Я використовую щоб позначити кількість стовпців X , тож якщо один стовпець X дає перехоплення, то у нас буде p - 1 непередбачених провідників. Деякі автори використовують p як кількість передбачувачів, що не перехоплюють, тому іноді ви можете побачити щось на зразок n - p - 1 у ступенях свободи, але все одно.pXXp1pnp1

Результатом цього є те, що , так що σ 2 : = 1E(eTe/σ2)=npчудово працює як оцінювачσ2.σ^2:=1npeTeσ2

Це означає , що β J

β^jσ^Sj=β^jSjeTe/(np)=β^jσSjeTeσ2(np)
- відношення стандартного гаусса до ква, поділеного на його ступеня свободи. Щоб закінчити це, нам потрібно показати незалежність, і ми можемо використовувати наступний результат:

Результат: для і матриць A і B в R l × k і R m × k відповідно, A Z і B Z є незалежними тоді і тільки тоді, коли A Σ B T = 0 (це вправа 58 (b) у главі 1 Математичної статистики Джуна Шао ).ZNk(μ,Σ)ABRl×kRm×kAZBZAΣBT=0

Ми маємо β = ( X T X ) - 1 X Т у і е = ( Я - Н ) у , де у ~ N ( X β , сг 2 I ) . Це означає ( X T X ) - 1 X Tσ 2 I ( I - H ) T = σ 2β^=(XTX)1XTye=(IH)yyN(Xβ,σ2I) так & beta ; ⊥е, іотже , & beta ; ⊥ е Т е.

(XTX)1XTσ2I(IH)T=σ2((XTX)1XT(XTX)1XTX(XTX)1XT)=0
β^eβ^eTe

Результатом є тепер ми знаємо , бета J за бажанням (при всіх вищевказаних припущень).

β^jσ^Sjtnp

C=(AB)(l+m)×kAB

CZ=(AZBZ)N((AμBμ),CΣCT)
CΣCT=(AB)Σ(ATBT)=(AΣATAΣBTBΣATBΣBT).
CZ is a multivariate Gaussian and it is a well-known result that two components of a multivariate Gaussian are independent if and only if they are uncorrelated, so the condition AΣBT=0 turns out to be exactly equivalent to the components AZ and BZ in CZ being uncorrelated.


3
+1 always enjoy reading your answer.
Haitao Du

9

@Chaconne's answer is great. But here is a much shorter nonmathematical version!

Since the goal is to compute a P value, you first need to define a null hypothesis. Almost always, that is that the slope is actually horizontal so the numerical value for the slope (beta) is 0.0.

The slope fit from your data is not 0.0. Is that discrepancy due to random chance or due to the null hypothesis being wrong? You can't ever answer that for sure, but a P value is one way to sort-of-kind-of get at an answer.

The regression program reports a standard error of the slope. Compute the t ratio as the slope divided by its standard error. Actually, it is (slope minus null hypothesis slope) divided by the standard error, but the null hypothesis slope is nearly always zero.

Now you have a t ratio. The number of degrees of freedom (df) equals the number of data points minus the number of parameters fit by the regression (two for linear regression).

With those values (t and df) you can determine the P value with an online calculator or table.

It is essentially a one-sample t-test, comparing an observed computed value (the slope) with a hypothetical value (the null hypothesis).


4
The real question is why this is "essentially a one-sample t-test", and I don't see how it can become clear from your answer...
amoeba says Reinstate Monica
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.