Різниця між t-тестом та ANOVA в лінійній регресії


12

Цікаво, які відмінності між t-тестом та ANOVA в лінійній регресії?

  1. Це t-тест, щоб перевірити, чи має будь-який з схилів і перехоплення середній нуль, а ANOVA для того, щоб перевірити, чи всі схили мають середній нуль? Це єдина різниця між ними?
  2. У простій лінійній регресії, тобто там, де існує лише одна змінна предиктора, існує лише один нахил для оцінки. Чи є еквівалент t-тесту та ANOVA, і якщо так, то як, враховуючи, що вони використовують різні статистичні дані (t-тест використовує t-статистику, а ANOVA використовує F-статистику)?

Оголошення 1) У лінійній регресії я зазвичай розумію ANOVA як міру корисності придатності моделі, тобто вирішувати, чи пояснює модель (лінія регресії) значну частину загальної мінливості. Питання, чи еквівалентно тому, що всі схили дорівнюють нулю, насправді дуже цікавий. Оголошення 2) Схоже, я отримую майже однакові р-значення для t-тесту та регресії ANOVA в цьому випадку. Дійсно цікава теорема!
цікаво

Відповіді:


18

Загальна лінійна модель дозволяє нам написати модель ANOVA як регресійну модель. Припустимо, що у нас є дві групи з двома спостереженнями, тобто чотири спостереження у векторі . Тоді оригінальною, надпараметризованою моделлю є E ( y ) = X β , де X - матриця предикторів, тобто манекенованих індикаторних змінних: ( μ 1 μ 1 μ 2 μ 2 ) = ( 1 1 0 1 1 0 1 0 1 1 0 1уЕ(у)=ХβХ

(мк1мк1мк2мк2)=(110110101101)(β0β1β2)

Параметри не можуть бути ідентифіковані як оскільки X має ранг 2 ( ( X ) X in не є зворотним). Щоб змінити це, введемо обмеження β 1 = 0 (контрасти лікування), що дає нам нову модель E ( y ) = X β : (((Х)'Х)-1(Х)'Е(у)Х(Х)'Хβ1=0Е(у)=Хβ

(мк1мк1мк2мк2)=(10101111)(β0β2)

мк1=β0β0мк2=β0+β2β2мк2-мк1

тψ=cjβjψ0c=(0,1)β2=0μ2μ1=0ψ^=cjβ^jβ^=(XX)1Xyψ

t=ψ^ψ0σ^c(XX)1c

σ^2=е2/(н-Rанк(Х))е2Rанк(Х)=2(Х'Х)-1Х'=(.5.500-.5-.5.5.5)β^0=0,5у1+0,5у2=М1β^2=-0,5у1-0,5у2+0,5у3+0,5у4=М2-М1c'(Х'Х)-1c

т=М2-М1-0σ^=М2-М1е2/(н-2)

ттн-Rанк(Х)н-2т(М2-М1)2/1е2/(н-2)=SSб/гfбSSш/гfш=ЖЖбшЖн-Rанк(Х)

βj1jψ


3

У 1, ANOVA, як правило, перевіряє коефіцієнти змін фактора та незалежність того, чи є різниця між групами чи ні. Ви чітко побачите різницю, якщо ваше програмне забезпечення дозволяє змінювати індикаторні змінні в регресії: для кожної манекена ви отримуватимете значення ап, говорячи про те, що ця група суттєво відрізняється від 0, і, як наслідок, суттєво відрізняється від застосовуваної контрольної групи або довідкового значення. . Зазвичай ви не побачите, наскільки важливий сам показник, поки ви не зробите тест на ANOVA.

F-тест - це тест-квадрат. Тому в 2 це те саме.


Дякую! (1) Що тут означають змінні індикатора? (2) Зазвичай t-тест еквівалентний ANOVA лише тоді, коли є лише дві групи. Але у простих лінійних регресіях може бути більше двох груп, де кількість груп - це кількість значень, які змінна прогноктора приймає в набір даних.
Тім

(1) Показник або категоріальна чи факторна змінна ... все одно. (2) Дійсно, але ви, можливо, захочете дізнатись, наскільки набір манекенів / категорій балів від ANOVA.
Праця

Дякую! (2) Отже, у простій лінійній регресії, як t-тест еквівалентний ANOVA, враховуючи, що існує більше двох груп? Що означає "наскільки добре набір манекенів / категорій балів від ANOVA" і чому я хочу це знати?
Тім

У регресії OLS R² (пояснена дисперсія) буде дорівнює eta² або MSS / TSS від ANOVA незалежно від того, скільки груп ви визначаєте. Далі ви можете дізнатися про внесок набору манекенів (тобто змінної індикатора), щоб сказати, чи є сам набір релевантним і в якій мірі, що відрізняється від значущості різниці однієї категорії з еталонною категорією. .
Праця
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.