Це властиво однозначно. Перша думка: коли ми робимо порівняння моделей, коли моделі мають різні структури фіксованих ефектів ( m2
і, m3
наприклад,), нам найкращеМLяк REML
"зміниться"у. (Це примножить його нак, де k X= 0) Це цікаво, що він працює за допомогою method="ML"
якого змушує мене повірити, що це не помилка. Здається, майже так, як це застосовує "добру практику".
Сказавши це, давайте подивимось під капот:
methods(AIC)
getAnywhere('AIC.default')
A single object matching ‘AIC.default’ was found
It was found in the following places
registered S3 method for AIC from namespace stats
namespace:stats with value
function (object, ..., k = 2)
{
ll <- if ("stats4" %in% loadedNamespaces())
stats4:::logLik
else logLik
if (!missing(...)) {
lls <- lapply(list(object, ...), ll)
vals <- sapply(lls, function(el) {
no <- attr(el, "nobs") #THIS IS THE ISSUE!
c(as.numeric(el), attr(el, "df"), if (is.null(no)) NA_integer_ else no)
})
val <- data.frame(df = vals[2L, ], ll = vals[1L, ])
nos <- na.omit(vals[3L, ])
if (length(nos) && any(nos != nos[1L]))
warning("models are not all fitted to the same number of observations")
val <- data.frame(df = val$df, AIC = -2 * val$ll + k * val$df)
Call <- match.call()
Call$k <- NULL
row.names(val) <- as.character(Call[-1L])
val
}
else {
lls <- ll(object)
-2 * as.numeric(lls) + k * attr(lls, "df")
}
}
де у вашому випадку ви бачите це:
lls <- lapply(list(m2,m3), stats4::logLik)
attr(lls[[1]], "nobs")
#[1] 500
attr(lls[[2]], "nobs")
#[1] 498
і очевидно logLik
робить щось (можливо?) несподіване ...? ні, не дуже, якщо ви подивитеся на документацію logLik
, ?logLik
побачите, що це прямо вказано:
There may be other attributes depending on the method used: see
the appropriate documentation. One that is used by several
methods is ‘"nobs"’, the number of observations used in estimation
(after the restrictions if ‘REML = TRUE’)
що повертає нас до початкової точки, яку ви повинні використовувати ML
.
Використовувати загальну приказку в CS: "Це не помилка; це (реальна) особливість!"
РЕДАКТИРУЙТЕ : (Просто для вирішення Вашого коментаря :) Припустимо, Ви використовуєте іншу модель, використовуючи lmer
цей час:
m3lmer <- lmer(y ~ x + 1|cat)
і ви робите наступне:
lls <- lapply(list(m2,m3, m3lmer), stats4::logLik)
attr(lls[[3]], "nobs")
#[1] 500
attr(lls[[2]], "nobs")
#[1] 498
Це здається очевидним розбіжністю між ними, але насправді це не так, як пояснив Гевін. Просто констатуйте очевидне:
attr( logLik(lme(y ~ x, random = ~ 1|cat, na.action = na.omit, method="ML")),
"nobs")
#[1] 500
Є вагома причина, чому це відбувається з точки зору методології, я думаю. lme
намагається зрозуміти регрес LME для вас, коли lmer
при порівнянні моделей вона одразу повертається до результатів ML. Я думаю, що в цьому питанні немає жодних помилок, lme
а lmer
за різними обгрунтуваннями за кожним пакетом.
Дивіться також коментар Гевіна Сімпосона щодо більш проникливого пояснення того, що було далі anova()
(те ж саме відбувається і з AIC
)