Відповісти на ваше запитання досить складно точно, але мені здається, ви порівнюєте два критерії (інформаційні критерії та p-значення), які не дають однакової інформації. Що стосується всіх інформаційних критеріїв (критерій АПК або Шварца), то чим вони менші, тим краще відповідність вашої моделі (зі статистичної точки зору), оскільки вони відображають компроміс між відсутністю пристосування та кількістю параметрів у моделі ; наприклад, критерій Acaike читає , деk p−2log(ℓ)+2kk- кількість параметрів. Однак, на відміну від AIC, SC є послідовним: ймовірність вибору неправильно більшої моделі збільшиться до 0 із збільшенням розміру вибірки. Вони використовуються для порівняння моделей, але ви цілком можете спостерігати модель зі значними прогнозами, які забезпечують погану відповідність (велике залишкове відхилення). Якщо ви можете досягти іншої моделі з нижчим AIC, це говорить про погану модель. І якщо розмір вибірки великий, все ще можуть бути низькими, що не дає багато інформації про відповідність моделі. Принаймні, подивіться, чи AIC показує значне зниження при порівнянні моделі лише з перехопленням і моделі з коваріатами. Однак якщо ваш інтерес полягає у пошуку найкращого набору прогнозів, вам, безумовно, доведеться переглянути методи варіативного вибору.p
Я б запропонував ознайомитись із санкціонованою регресією , яка дозволяє здійснити змінний вибір, щоб уникнути проблем із придатністю. Про це йдеться у Стратегії моделювання регресії Франка Харрелла (стор. 207 пр.), Або Moons et al., Що санкціонують максимальну оцінку ймовірності для прямого коригування діагностичних та прогностичних моделей прогнозування для переоптимізму: клінічний приклад , J Clin Epid (2004) 57 ( 12).
Дивіться також дизайн ( lrm
) і stepPlr ( step.plr
) пакетів R, або штрафується пакет. Ви можете переглядати пов'язані питання щодо варіабельного вибору в цьому ПТ.