У регресії термін взаємодії знищує обидва пов'язані з цим прямі ефекти. Чи потрібно відмовитися від взаємодії чи повідомити про результат? Взаємодія не була частиною початкової гіпотези.
У регресії термін взаємодії знищує обидва пов'язані з цим прямі ефекти. Чи потрібно відмовитися від взаємодії чи повідомити про результат? Взаємодія не була частиною початкової гіпотези.
Відповіді:
Я думаю, що це хитро; як ви натякаєте, тут є "моральна небезпека": якби ви взагалі не дивилися на взаємодію, ви були б вільними і зрозумілими, але тепер, коли у вас є, є підозра на зневоднення даних, якщо ви її відкинете.
Ключовим моментом є, мабуть, зміна значення ваших ефектів, коли ви переходите від основних ефектів до моделі взаємодії. Те, що ви отримуєте від «основних ефектів», дуже залежить від того, як закодуються ваші методи лікування та протиставлення. У R за замовчуванням обробляється контраст з першими рівнями факторів (тими, які мають імена в алфавітному порядку, якщо ви не вийшли зі шляху, щоб кодувати їх по-іншому) як базові рівні.
Скажіть (для простоти), що у вас є два рівні, «контроль» і «trt», для кожного фактора. Без взаємодії значення параметра "v1.trt" (якщо вважати контрастність лікування, як це за замовчуванням у R), "середня різниця між 'v1.control' та 'v1.trt' групою"; значення параметра "v2.trt" - "середня різниця між" v2.control "і" v2.trt "".
Під час взаємодії 'v1.trt' - це середня різниця між 'v1.control' та 'v1.trt' у групі 'v2.control' , і аналогічно 'v2.trt' - середня різниця між групами v2 у група 'v1.control'. Таким чином, якщо у вас є досить невеликі ефекти лікування в кожній з контрольних груп, але великий ефект у групах лікування, ви можете легко побачити те, що ви бачите.
Єдиний спосіб, коли я бачу, що це відбувається без значного терміну взаємодії, це, якщо всі ефекти є досить слабкими (так що ви дійсно маєте на увазі під впливом "ефект зник" - це те, що ви перейшли від p = 0,06 до p = 0,04, через лінію магічної значущості).
Інша можливість полягає в тому, що ви "використовуєте занадто багато ступенів свободи" - тобто оцінки параметрів насправді не так сильно змінюються, але термін залишкової помилки є достатньо завищеним через необхідність оцінки ще 4 [= (2- 1) * (5-1)] параметри, які ваші значущі терміни стають несуттєвими. Знову ж таки, я б очікував цього лише з невеликим набором даних / відносно слабкими ефектами.
Одне можливе рішення - перейти до суми контрастів, хоча це теж делікатно - ви повинні бути впевнені, що "середній ефект" має значення у вашому випадку. Найкраще - побудувати свої дані та переглянути коефіцієнти та зрозуміти, що відбувається з точки зору розрахункових параметрів.
Сподіваюся, що це допомагає.
Ви впевнені, що змінні були належним чином виражені? Розглянемо дві незалежні змінні і X 2 . Постановка проблеми стверджує, що ви добре вписуєтесь у форму
Це можна переписати
тобто якщо ви повторно висловите свої змінні у формі
то модель лінійна і, ймовірно, має гомосептичні залишки:
Цей аналіз показує, як можливо - навіть певно в деяких додатках - мати модель, в якій єдиними ефектами є взаємодії. Це виникає, коли змінні (незалежні, залежні або обидва) представлені вам у непридатній формі, а їх логарифми є більш ефективною ціллю для моделювання. Розподіли змінних та початкових залишків дають підказки, необхідні для визначення того, чи може це бути так: перекошені розподіли змінних та гетероскедастичність залишків (зокрема, мають відхилення, приблизно пропорційні прогнозованим значенням), є показниками.
Зазвичай це вводить високу мультиколінеарність, оскільки продукт сильно співвідноситься з обома оригінальними змінними. При мультиколінеарності окремі оцінки параметрів сильно залежать від того, які інші змінні враховуються - як у вашому випадку. Як протимір, центрирование змінних часто зменшує мультиколінеарність при розгляді взаємодії.
I'm not sure if this directly applies to your case since you seem to have categorical predictors but use the term "regression" instead of "ANOVA". Of course the latter case is essentially the same model, but only after choosing the contrast coding scheme as Ben explained.
This may be a problem of interpretation, a misunderstanding of what a so-called "direct effect" coefficient really is.
In regression models with continuous predictor variables and no interaction terms -- that is, with no terms that are constructed as the product of other terms -- each variable's coefficient is the slope of the regression surface in the direction of that variable. It is constant, regardless of the values of the variables, and is obviously a measure of the effect of that variable.
У моделях з взаємодіями - тобто з термінами, які будуються як продукти інших термінів - таку інтерпретацію можна зробити без додаткової кваліфікації лише для змінних, які не залучені до жодної взаємодії. Коефіцієнт змінної, яка бере участь у взаємодіях, - це нахил поверхні регресії у напрямку до цієї змінної, коли значення всіх змінних, які взаємодіють із змінною, про яку йдеться, дорівнюють нулю , а тест на значення коефіцієнта відноситься до нахил поверхні регресії лише в тій області простору прогноктора. Оскільки немає необхідності, щоб насправді існували дані у цій області простору, коефіцієнт очевидного прямого ефекту може мати незначну схожість зі схилом поверхні регресії в області простору прогноктора, де фактично спостерігалися дані. Не існує справжнього «прямого ефекту» в таких випадках; найкращим замінником, мабуть, є «середній ефект»: нахил поверхні регресії у напрямку до змінної, що приймається, взятої у кожній точці даних та усередненою по всіх точках даних. Докладніше про це див. У розділі Чому можуть центрирувати незалежні змінні змінити основні ефекти з помірністю?