Я думаю, що це різниця, які тести обчислюються. car::Anova
використовує тести Wald, тоді як drop1
вдосконалює модель, опускаючи окремі терміни. Джон Фокс одного разу написав мені, що тести Вальда і тести з переобладнаних моделей, використовуючи тести коефіцієнта ймовірності (тобто стратегію з drop1
), погоджуються на лінійні, але не обов'язково нелінійні моделі. На жаль, ця пошта була внесена в список і не містила посилань. Але я знаю, що в його книзі є розділ про тести Вальда, який може містити бажану інформацію.
Довідка car::Anova
каже:
Випробування типу II розраховуються за принципом маргінальності, тестуючи кожен термін після всіх інших, крім ігнорування родичів вищого порядку; так звані випробування типу III порушують маргінальність, випробовуючи кожен термін у моделі після всіх інших. Це визначення випробувань типу II відповідає тестам, що виробляються SAS для моделей дисперсійного аналізу, де всі предиктори є факторами, але не більш загальними (тобто, коли є кількісні прогнози). Будьте дуже обережні при формулюванні моделі тестів III типу, інакше перевірені гіпотези не мають сенсу.
На жаль, я не можу відповісти на ваше друге чи третє запитання, оскільки я також хотів би це знати.
Оновити повторний коментар :
Не існує тестів Wald, LR та F для узагальнених змішаних моделей. Anova
просто дозволяє проводити "chisq"
і "F"
тестувати змішані моделі (тобто "mer"
об'єкти, повернені lmer
). У розділі використання написано:
## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3),
test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)
Але оскільки F-тести для mer
об'єктів обчислюються за допомогою pbkrtest
, який, Anova
наскільки мені відомо, працює лише для лінійних змішаних моделей, для GLMM повинні завжди повертатися chisq
(отже, ви не бачите різниці).
Оновлення стосовно питання:
Моя попередня відповідь просто намагалася відповісти на ваше головне запитання, різницю між Anova()
і drop1()
. Але тепер я розумію, що ви хочете перевірити, чи визначені фіксовані ефекти значні чи ні. R-сиг-змішане моделювання FAQ говорить наступне щодо цього:
Тести одиничних параметрів
Від найгіршого до найкращого:
- Wald Z-тести
- Для збалансованих, вкладених LMM, де можна обчислити df: Wald t-тести
- Тест на коефіцієнт ймовірності або встановивши модель так, щоб параметр можна було ізолювати / скидати (через anova або drop1), або за допомогою обчислення ймовірності профілів
- MCMC або параметричні інтервали довіри завантаження
Випробування ефектів (тобто тестування того, що кілька параметрів одночасно нульові)
Від найгіршого до найкращого:
- Тести Wald chi-kvadrat (наприклад, автомобіль :: Anova)
- Тест на коефіцієнт ймовірності (через anova або drop1)
- Для збалансованих, вкладених LMM, де можна обчислити df: умовні F-тести
- Для LMM: умовні F-тести з корекцією df (наприклад, Kenward-Roger у пакеті pbkrtest)
- MCMC або параметричні, або непараметричні порівняння завантажувальної програми (непараметричне завантажувальне завантаження повинно бути ретельно здійснено для врахування факторів групування)
(наголос додано)
Це вказує на те, що ваш підхід до використання car::Anova()
для GLMM, як правило, не рекомендується, але слід використовувати підхід MCMC або bootstrap. Я не знаю, чи pvals.fnc
з languageR
пакету прокидається GLMM, але варто спробувати.