Зазвичай я маю справу з даними, де кілька осіб вимірюються кілька разів у кожному з двох або більше умов. Я нещодавно грав із моделюванням змішаних ефектів, щоб оцінити докази відмінностей між умовами, моделюючи individual
як випадковий ефект. Для візуалізації невизначеності щодо прогнозів такого моделювання я використовував завантажувальний запуск, де на кожній ітерації завантажувального пристрою обидва особи та спостереження в межах умов відбираються з заміною, і нова модель змішаного ефекту обчислюється, з якої прогнози отримуються. Це чудово працює для даних, які передбачають гауссова помилка, але коли дані є біноміальними, завантажувальна завантаження може зайняти дуже багато часу, оскільки кожна ітерація повинна обчислити порівняно інтенсивно обчислювану біноміальну модель змішаних ефектів.
Я вважав, що я міг би використовувати залишки з оригінальної моделі, а потім використовувати ці залишки замість необроблених даних під час завантаження, що дозволило б мені обчислити гауссову модель змішаного ефекту для кожної ітерації завантажувальної програми. Додавання оригінальних прогнозів із біноміальної моделі необроблених даних до завантажених прогнозів із залишків дає 95% ДІ для вихідних прогнозів.
Однак я нещодавно зашифрував просту оцінку цього підходу, моделюючи різницю між двома умовами та обчислюючи частку разів 95-відсоткового довірчого інтервалу не вдалося включити нуль, і я виявив, що вищезазначена процедура завантаження на основі залишків дає досить сильну анти- консервативні інтервали (вони виключають нуль більше 5% часу). Крім того, я кодував (за тим самим посиланням, що і попередній) аналогічну оцінку цього підходу, що застосовувався до даних, які спочатку були гауссовими, і він отримав аналогічно (хоча і не настільки крайні) антиконсервативні КІ. Будь-яка ідея, чому це може бути?