По-перше, я введу ще четверту модель дискусії у своїй відповіді:
fit1.5 <- lm (y_2 ~ x_1 + x_2 + y_1)
Частина 0
Різниця між fit1 та fit1.5 найкраще підсумовується як різниця між обмеженою різницею та оптимальною різницею.
Я буду використовувати більш простий приклад, щоб пояснити це, ніж той, що надано вище. Почнемо з fit1.5. Більш простою версією моделі буде
Звичайно, коли ми отримаємо оцінку OLS, вона знайде «оптимальний» вибір для . І хоча, як видається дивним, писати як таке, ми могли б переписати формулу як
Ми можемо вважати це як "оптимальну" різницю між двома змінними .
y2=b0+b1⋅x+b2⋅y1
b2y2−b2⋅y1=b0+b1⋅x
y
Тепер, якщо ми вирішимо обмежити , то формула / модель стає
що є лише (обмеженою) різницею.b2=1
y2−y1=b0+b1⋅x
Зауважте, що у наведеній вище демонстрації, якщо ви дозволяєте бути дихотомічною змінною, а - попереднім тестом, а після спарювання балів після тестування, то модель обмеженої різниці буде просто незалежними зразками test для виграшу в балах , тоді як оптимальною різницевою моделлю буде тест ANCOVA з показниками попереднього тесту, використовуваним як коваріати.xy1y2t
Частина 1
Модель fit2 найкраще можна розглядати аналогічно різниці, що застосовується вище. Хоча це і є надмірне спрощення (оскільки я цілеспрямовано виключаю умови помилки), модель може бути представлена як
де для значень і для значень . Ось надмірне спрощення ... це давайте напишемо
Написано іншим способом, . Тоді як модель fit1.5 мала значення для досягнення оптимальної різниці для аналізу OLS, тут
y=b0+b1⋅x+b2⋅t
t=0y1t=1y2y1y2=b0+b1⋅x=b0+b1⋅x+b2
y2−y1=b2b2b2по суті є лише середньою різницею між значеннями (після контролю для інших коваріатів).
y
Частина 2
Отже, яка різниця між моделями fit2 та fit3 ... насправді, дуже мало. Модель fit3 враховує кореляцію в термінах помилок, але це лише змінює процес оцінки, і, таким чином, відмінності між двома результатами моделі будуть мінімальними (крім того, що fit3 оцінює коефіцієнт авторегресії).
Частина 2.5
І я включу ще одну модель в цю дискусію
fit4 <- lmer (y ~ час + x1 + x2 + (1 | id), дані = df.long)
Ця модель із змішаними ефектами робить дещо іншу версію автоматичного підходу. Якби ми включали коефіцієнт часу у випадкові ефекти, це було б порівняно з обчисленням різниці між s для кожного суб'єкта. (Але це не спрацює ... і модель не запуститься.)y
Holland, Paul & Donald Rubin. 1983. On Lord’s Paradox. In Principles of modern psychological measurement: A festchrift for Frederic M. Lord edited by Wainer, Howard & Samuel Messick pgs:3-25. Lawrence Erlbaum Associates. Hillsdale, NJ.