Логіка F-тесту ANOVA в простому лінійному регресії


17


Я намагаюся зрозуміти логіку, що стоїть на F-тесті ANOVA в простому лінійному регресійному аналізі. Питання, яке у мене таке, наступне. Коли значення F, тобто MSR/MSEвелике, ми приймаємо модель як значущу. У чому полягає логіка цього?


@ Can'tTell Ви можете знайти допомогу щодо форматування тут: stats.stackexchange.com/editing-help

Відповіді:


21

У найпростішому випадку, коли у вас є лише один предиктор (проста регресія), скажімо, , тест повідомляє, чи пояснює, чи включає більшу частину дисперсії, помічену в порівняно з нульовою моделлю (лише перехоплення). Потім ідея полягає в тому, щоб перевірити, чи додана пояснена дисперсія (загальна дисперсія, TSS, мінус залишкова дисперсія, RSS) є достатньо великою, щоб вважати її "значною кількістю". Ми тут порівнюємо модель з одним предиктором або пояснювальною змінною базової лінії, яка є просто «шумом» (нічого, крім великої середньої величини). F X 1 YX1FX1Y

Аналогічно, ви можете обчислити статистику у налаштуваннях множинної регресії: У цьому випадку це становить тест всіх прогнозів, що входять до моделі, що в рамках HT означає, що ми цікавимося, чи корисний будь-який з них для прогнозування відповіді змінна. Це причина, з якої ви можете зіткнутися з ситуаціями, коли -тест для всієї моделі є значущим, тоді як деякі або -тести, пов'язані з кожним коефіцієнтом регресії, не є.Ft zFtz

У статистика виглядає якF

F=(TSSRSS)/(p1)RSS/(np),

де - кількість параметрів моделі, а - кількість спостережень. Цю кількість слід віднести до розподілу для критичної чи -значної величини. Він застосовується і для простої регресійної моделі, і очевидно має деяку аналогію з класичною рамкою ANOVA.n F p - 1 , n - p ppnFp1,npp

Sidenote. Якщо у вас є більше одного передбачувача, то вам може бути цікаво, чи врахування лише підмножини цих прогнокторів "знижує" якість відповідності моделі. Це відповідає ситуації, коли ми розглядаємо вкладені моделі . Це точно та ж ситуація, що і вище, де ми порівнюємо задану регресійну модель з нульовою моделлю (не включаються прогнози). Для того, щоб оцінити зменшення поясненої дисперсії, ми можемо порівняти залишкову суму квадратів (RSS) з обох моделей (тобто те, що залишається незрозумілим, коли ви враховуєте ефект передбачувачів, наявних у моделі). Нехай і позначають базову модель (зM0M1pпараметри) і модель з додатковим провісника ( Параметри), а потім , якщо є Малі, ми вважаємо, що менша модель працює так само добре, як і більша. Хорошою статистикою для використання було б співвідношення таких SS, , зважений їх ступенями свободи ( для чисельника, для знаменника). Як уже було сказано, можна показати, що ця величина відповідає розподілу (або Фішера-Снедекора) з і свободи. Якщо спостерігаєтьсяq=p+1RSSM1RSSM0(RSSM1RSSM0)/RSSM0pqnpFpqnpFбільший за відповідний квантил у заданому (як правило, ), то ми б зробили висновок, що більша модель робить "кращу роботу". (Це аж ніяк не означає, що модель з практичної точки зору правильна!)Fαα=0.05

Узагальненням наведеної ідеї є тест коефіцієнта ймовірності .

Якщо ви використовуєте R, ви можете грати з описаними вище поняттями:

df <- transform(X <- as.data.frame(replicate(2, rnorm(100))), 
                                   y = V1+V2+rnorm(100))
## simple regression
anova(lm(y ~ V1, df))         # "ANOVA view"
summary(lm(y ~ V1, df))       # "Regression view"
## multiple regression
summary(lm0 <- lm(y ~ ., df))
lm1 <- update(lm0, . ~ . -V2) # reduced model
anova(lm1, lm0)               # test of V2

@chl - Перш за все, приємна відповідь! Це може гарантувати, що це власне запитання, тому дайте мені знати ... але описи, які я читав про таблиці ANOVA для регресійних моделей, зазвичай посилаються на три рядки таблиці: прогнози, помилки та підсумки. Однак anova()функція в R повертає індивідуальний рядок для кожного прогноктора в моделі. Наприклад, anova(lm0)вище повертає рядок для V1, V2і Residuals(і не тільки). Таким чином, ми отримуємо дві статистики F * для цієї моделі. Як це змінює інтерпретацію статистики F *, повідомленої в таблиці ANOVA?
Чейз

@Chase Так, таблиця ANOVA, яку я маю на увазі, також влаштована таким чином. Сміливо задайте питання; Я хотів би почути, що думають про це інші користувачі. Я зазвичай використовую anova()для порівняння GLM. При застосуванні до lmабо aovоб'єкта він відображає окремі ефекти (SS) для кожного терміна в моделі та не показує TSS. (Я використовував , щоб застосувати це як раз навпаки, а саме після підгонки ANOVA з aov(), я можу використовувати , summary.lm()щоб отримати уявлення про те , лікування контрастів.) Тим НЕ менше, ви тонкі питання між summary.lm()і summary.aov(), особливо в зв'язку з послідовним фитинга.
chl

@Chase я просто заново відкрив це дуже хороший відповідь від @Gavin про тлумаченні ого лепехи) вихідному ( .
chl

@chl - Трохи зачепив мене. Це приємна відповідь про інтуїцію, що стоїть за F-тестом, і про те, як "йде в правильних напрямках". Але це не пояснює логіку того, чому слід обрати саме цей тест. Наприклад, чому ми не повинні використовувати статистику PRESS? Ви натякаєте відношення правдоподібності - що робить мати логічне обгрунтування - отже , його застосовність до всіх моделей, в відміну від F-тесту.
ймовірністьлогічний

@probabilityislogic Добре. Моя ідея спочатку полягала в тому, щоб показати логіку порівняння моделі, серед якої проста модель регресії - це лише окремий випадок (порівняння з "дуже нульовою" моделлю), що також мотивує швидку примітку про LRT. Я згоден з вами, якщо ми працюємо за принципом чистого підходу Неймана-Пірсона для HT. Однак я в основному думав з точки зору Теорії ЛМ, де СС мають пряму геометричну інтерпретацію і де порівняння моделі або єдиний F-тест для однобічного ANOVA (...)
chl
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.