У мене є експеримент, який я спробую тут абстрагувати. Уявіть, що я кидаю три білі камені перед вами і прошу вас зробити судження про їхню позицію. Я фіксую різноманітні властивості каменів і вашу відповідь. Я роблю це над низкою предметів. Я генерую дві моделі. Одне полягає в тому, що найближчий до вас камінь пророкує вашу відповідь, а другий - геометричний центр каменів передбачить вашу реакцію. Отже, використовуючи lmer в RI, можна було написати.
mNear <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center + (1|subject), REML = FALSE)
ОНОВЛЕННЯ ТА Зміна - більш пряма версія, яка містить кілька корисних коментарів
Я міг би спробувати
anova(mNear, mCenter)
Що, звичайно, невірно, тому що вони не вкладені, і я не можу реально їх порівняти таким чином. Я очікував, що anova.mer видасть помилку, але цього не сталося. Але можливе гніздування, яке я міг би спробувати тут, не є природним і все ще залишає мене дещо менш аналітичними твердженнями. Коли моделі вкладаються природним шляхом (наприклад, квадратична лінійна), тест є лише одним способом. Але в цьому випадку, що значить мати асиметричні результати?
Наприклад, я міг зробити модель три:
mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)
Тоді я можу anova.
anova(mCenter, mBoth)
anova(mNearest, mBoth)
Це справедливо робити, і тепер я вважаю, що центр додає до найближчого ефекту (друга команда), але BIC насправді збільшується, коли найближчий додається до центру (виправлення нижчого парсингу). Це підтверджує те, у чому підозрювали.
Але чи знаходить це достатньо? І це справедливо, коли центр та найближчі так сильно співвідносяться?
Чи є кращий спосіб аналітичного порівняння моделей, коли мова не йде про додавання та віднімання пояснювальних змінних (ступенів свободи)?