Чому застосування вибору моделі за допомогою AIC дає мені незначні значення p для змінних


14

У мене є питання щодо АПК і сподіваюся, що ви можете мені допомогти. Я застосував вибір моделі (назад або вперед) на основі АПК на моїх даних. І деякі з обраних змінних закінчилися значеннями p> 0,05. Я знаю, що люди говорять, що ми повинні вибирати моделі на основі AIC замість p-значення, тому здається, що AIC і p-значення - це два відмінності. Може хтось скаже мені, в чому різниця? Я розумію поки що:

  1. Для зворотного вибору за допомогою AIC, припустимо, у нас є 3 змінні (var1, var2, var3), і AIC цієї моделі є AIC *. Якщо виключення будь-якої з цих трьох змінних не призведе до AIC, який значно нижчий, ніж AIC * (з точки зору розподілу ch-квадрата при df = 1), то ми би сказали, що ці три змінні є кінцевими результатами.

  2. Значне p-значення для змінної (наприклад, var1) у трьох змінних моделях означає, що стандартизований розмір ефекту цієї змінної значно відрізняється від 0 (згідно з Wald або t-тестом).

У чому полягає принципова відмінність цих двох методів? Як я інтерпретую це, якщо в моїй кращій моделі (отриманої через AIC) є деякі змінні, що мають несуттєві значення p?

Відповіді:


13

AIC та його варіанти ближчі до варіацій на ніж при p-значеннях кожного регресора. Точніше, це штрафовані версії журналу вірогідності.R2

Ви не хочете перевіряти відмінності AIC за допомогою chi-квадрата. Ви можете перевірити відмінності ймовірності журналу за допомогою chi-квадрата (якщо моделі вкладені). Для AIC краще нижчий (в більшості випадків у більшості його реалізацій). Подальше коригування не потрібно.

Ви дійсно хочете уникати автоматизованих методів вибору моделі, якщо можливо. Якщо вам потрібно скористатися, спробуйте LASSO або LAR.


2
Дякую за відповідь. Так, ти правий. AIC не застосовує жодного тесту, натомість дає просту міру того, наскільки хороша модель підходить до зразка та чи можна також простувати модель, додавши -2 * логічність з 2 * числом_параметри. Можливо, це пояснює, чому змінні з несуттєвими значеннями p зберігалися у вибраній моделі?
tiantianchen

Яку модель нам вибрати, якщо у нас є дві моделі з майже однаковим AIC, але в одній ми маємо більш значущі терміни, ніж в іншій?
Агус Камачо


11

Насправді використання AIC для ступінчастого вибору з одною змінною за часом (принаймні, асимптотично) еквівалентно ступінчастому відбору з використанням межі для p-значень приблизно 15,7%. (Це досить просто показати - AIC для більшої моделі буде меншим, якщо зменшить ймовірність журналу більше, ніж штраф за додатковий параметр 2; це відповідає вибору більшої моделі, якщо значення p в a Хі-квадрат Вальда менший за площу хвоста на поза 2 ... (15,7%)χ12

Тож навряд чи дивно, якщо порівнювати його з використанням менших обрізань для p-значень, які іноді містять змінні з більш високими p-значеннями, ніж це відсічення.


чи можете ви вказати на URL або посилання на зв’язок між AIC та p-значеннями через квадрат Wal Wal-Chi? Спасибі.
meh

Це порівняно легко показати, використовуючи значення 2 як критичне значення, яке відповідає порогу значення p 15,73% (коли ступінь свободи тесту дорівнює 1, як це відбувається у покроковому відборі за допомогою лінійної регресії моделі та суцільні змінні). Це можна обчислити як 1-chi2cdf (2,1).
Джордж

@aginensky Не бачив фактичної посилання, хоча з'єднання є прямим. Я уявляю, що можу гугл на одному, повісити.
Glen_b -Встановіть Моніку

@aginensky Lindsey, JK & Jones, B. (1998) Вибір серед узагальнених лінійних моделей, застосованих до медичних даних. Статистика в медицині , 17, 59-68. ... див. середину сторінки 62. Більше було б.
Glen_b -Встановити Моніку

@ Glen_b- дякую, я ніколи раніше такого подібного не бачив.
meh

9

Зауважте, що ні p-значення, ні AIC не були розроблені для поетапного вибору моделі, насправді припущення, що лежать в основі обох (але різні припущення), порушуються після першого кроку в поступовій регресії. Як зазначалося @PeterFlom, LASSO та / або LAR є кращими альтернативами, якщо ви відчуваєте потребу в автоматизованому виборі моделі. Ці методи тягнуть великі випадкові оцінки (які поступово винагороджують випадковість) назад у бік 0 і тому мають тенденцію бути менш упередженими, ніж ступінчасті (а решта зміщення, як правило, більш консервативні).

Велика проблема з AIC, яку часто не помічають, - це величина різниці значень AIC, загальноприйняте бачити "чим краще", і зупинитися там (і автоматизовані процедури просто підкреслюють це). Якщо ви порівнюєте 2 моделі і вони мають дуже різні значення AIC, то явна перевага надається моделі з нижчим AIC, але часто ми матимемо 2 (або більше) моделі зі значеннями AIC, близькими одна до одної, у у цьому випадку, використовуючи лише модель з найнижчим значенням AIC, буде упущено цінну інформацію (а висновки щодо термінів, які містяться в цій моделі чи ні, але відрізняються від інших подібних моделей, будуть безглуздими або гіршими). Інформація, що знаходиться за межами самих даних (наприклад, наскільки важко / дорого) збирати набір змінних прогнозів), може зробити модель з дещо більшим AIC більш бажаною для використання без особливих втрат якості. Інший підхід полягає у використанні середньозваженого середнього рівня для подібних моделей (це, ймовірно, призведе до подібних остаточних прогнозів для таких санкціонованих методів, як регресія хребта чи ласо, але роздум, що веде до моделі, може допомогти в розумінні).


Дякую @GregSnow за вашу відповідь. Чи можу я запитати, які існують (різні) припущення щодо вибору моделі p-значення та AIC? Чи застосовувати бі-бік (вперед / назад) або спробувати повний підмножина більш-менш вирішить проблему пошуку локальної оптимальної моделі простого використання за допомогою ступінчастого вибору вперед або назад? (хоча проблема надмірного пристосування завжди існує в методі AIC / p-значення, а LASSO та / або LAR є кращим варіантом)
tiantianchen

Оскільки ні p-значення, ні AIC не були розроблені для вибору моделі, вони не мають припущень щодо вибору моделі. Обидва були покликані зробити єдине порівняння, подумайте, скільки порівнянь відбувається за поступовою регресією, чи справді ви думаєте, що кожен раз робиться "найкращий" крок?
Грег Сног

@GregSnow. Мій орієнтир для вивчення AIC був таким - stat.cmu.edu/~larry/=stat705/Lecture16.pdf, який, схоже, входить AIC в бізнес- селекторний бізнес. Крім того, коли я бачив, як AIC використовувався в моделях arima часових рядів, він завжди використовувався для вибору моделі.
meh

@aginensky, Так, AIC (та інші) використовуються для вибору моделі. Це не означає, що AIC був призначений для вибору моделі, або що він навіть підходить для вибору моделі, або що автоматичний вибір моделі відповідає на важливе питання. Я раніше використовував викрутку як молоток, це не означає, що це взагалі гарна ідея.
Грег Сніг

"У цій статті описано, як систематично можна вирішити проблему вибору статистичної моделі за допомогою інформаційних критеріїв (AIC), запроваджених автором у 1971 р." З Akaike, "Новий погляд на ідентифікацію статистичної моделі". Тож навіть якщо AIC - це молоток, який використовується у вирішенні проблеми, яку найкраще вирішити шуруповертом, це було думкою дизайнера цього молотка, що молоток був правильним способом вирішення цієї проблеми. Правильно чи неправильно AIC був розроблений для вибору моделі. Я був би радий побачити інший погляд на AIC. Не соромтеся відповісти на це, але я закінчив.
meh

1

Мій досвід роботи з AIC полягає в тому, що якщо змінні здаються несуттєвими, але все ж з'являються в моделі з найменшим AIC, вони виявляються можливими плутанинами.

Я пропоную вам перевірити на непорозуміння. Видалення таких несуттєвих змінних має змінити величину деяких інших оцінених коефіцієнтів більш ніж на 25%.


Поясніть, будь ласка, як ОП «може перевірити на непорозуміння».
Джим

0

Я думаю, що найкращий вибір моделі - це використання пакету MuMIn. Це буде однокроковий результат, і вам не доведеться шукати найнижчі значення AIC. Приклад:

d<-read.csv("datasource")
library(MuMIn)
fit<-glm(y~x1+x2+x3+x4,family=poisson,data=d)
get.models(dredge(fit,rank="AIC"))[1]

2
Скажіть, який код ви можете використовувати, насправді не відповідає на питання, якщо ви не можете пояснити, як це вирішує питання статистично. У будь-якому випадку нічого в питанні не стосується конкретного програмного забезпечення.
Нік Кокс
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.