Ефект придушення в регресії: визначення та візуальне пояснення / змалювання


40

Що таке змінна супресора при множинній регресії та які можуть бути способи візуального відображення ефекту придушення (його механіки чи свідчення результатів)? Я хотів би запросити всіх, хто має думки, поділитися.



2
Ах, це приємно і цікаво. Дуже дякую. Чи хочете ви додати відповідь на основі цього? Це було б корисно багатьом.
ttnphns

Відповіді:


45

Існує ряд часто згадуваних регресійних ефектів, які концептуально відрізняються, але мають багато спільного, якщо їх розглядати чисто статистично (див., Наприклад, цей документ "Еквівалентність ефекту медіації, заплутаності та придушення" Девіда Маккіннона та ін., Або статті Вікіпедії):

  • Посередник: IV, який передає ефект (повністю частково) ще одного ІV до ДВ.
  • Конфіденція: IV, що становить або виключає, повністю або частково, ефект іншого ІV до ДВ.
  • Модератор: IV, який, змінюючи, керує силою впливу іншого IV на DV. Статистично він відомий як взаємодія між двома IV.
  • Супресор: IV (посередник або модератор концептуально), включення якого посилює дію іншого IV на ДВ.

Я не збираюся обговорювати, наскільки деякі чи всі вони технічно схожі (для цього читайте зв'язаний вище документ). Моя мета - спробувати графічно показати, що таке супресор . Вищенаведене визначення про те, що "супресор - це змінна, включення якої посилює дію іншого IV на ДВ", мені здається потенційно широким, оскільки воно нічого не говорить про механізми такого посилення. Нижче я обговорюю один механізм - єдиний, який я вважаю придушенням. Якщо є й інші механізми (як на даний момент, я не намагався медитувати жодного іншого), то або вищезгадане "широке" визначення слід вважати неточним, або моє визначення придушення слід вважати занадто вузьким.

Визначення (наскільки я розумію)

Супресор - це незалежна змінна, яка при додаванні до моделі збільшує спостережуваний R-квадрат в основному за рахунок його обліку залишків, залишених моделлю без нього, а не завдяки власній асоціації з DV (що порівняно слабко). Ми знаємо, що збільшення R-квадрата у відповідь на додавання IV є співвідношенням квадратної частини цього IV у цій новій моделі. Таким чином, якщо співвідношення частини IV з DV більше (за абсолютним значенням), ніж нульовий порядок між ними, то IV є супресором.r

Отже, супресор здебільшого "пригнічує" помилку зменшеної моделі, будучи слабким, як і сам предиктор. Термін помилки є доповненням до прогнозу. Прогноз "прогнозується на" або "поділяється між" IV (коефіцієнти регресії), і такий самий термін помилки ("доповнює" до коефіцієнтів). Супресор пригнічує такі компоненти помилок нерівномірно: більший для деяких ІВ, менший для інших ІВ. Тим ІП, у яких "такі" компоненти значно пригнічуються, він надає значну допомогу, фактично підвищуючи їх регресійні коефіцієнти .

Не сильний пригнічувальний ефект виникає часто і дико ( приклад на цьому сайті). Сильне придушення зазвичай вводиться свідомо. Дослідник прагне до характеристики, яка повинна співвідноситись з DV як можна слабкіше, і в той же час співвідноситься з чимось у IV, що цікавить, що вважається нерелевантним, недійсним у відношенні DV. Він вводить його в модель і отримує значне збільшення прогнозованої сили IV. Коефіцієнт супресора, як правило, не інтерпретується.

Я міг би підсумувати своє визначення так: [відповідь на відповідь @ Джейка та коментарі @ gung]:

  • Формальне (статистичне) визначення: супресор IV - кореляція частини, більша, ніж кореляція нульового порядку (із залежною).
  • Концептуальне (практичне) визначення: наведене вище формальне визначення + кореляція нульового порядку невелика, так що супресор не є самим звуковим прогноктором.

"Суперсор" - це роль IV лише в конкретній моделі , а не характеристика окремої змінної. При додаванні або видаленні інших ШВ супресор може раптово припинити придушення або відновити придушення або змінити фокус своєї пригнічувальної активності.

Нормальна регресивна ситуація

Перший малюнок нижче показує типову регресію з двома предикторами (ми будемо говорити про лінійну регресію). Зображення скопійовано звідси, де це пояснено більш детально. Коротше кажучи, помірно співвіднесені (= маючи гострий кут між ними) предиктори і прольотують 2-денний простір "площини X". Залежна змінна проектується на неї ортогонально, залишаючи передбачувану змінну та залишки зі st. відхилення, що дорівнює довжині . R-квадрат регресії - кут між і , і два коефіцієнти регресії безпосередньо пов'язані з координатами перекосу іX 2 Y Y e Y Y b 1 b 2 X 1 X 2 YX1X2YYeYYb1b2 відповідно. Цю ситуацію я назвав нормальною або типовою, тому що і і співвідносяться з (косий кут існує між кожним із незалежних та залежним), а прогноктори змагаються за прогноз, оскільки вони співвідносяться.X1X2Y

введіть тут опис зображення

Ситуація придушення

Це показано на наступному малюнку. Цей як і попередній; однак вектор зараз трохи спрямований від глядача, і значно змінив напрямок. діє як супресор. Перш за все зазначимо , що навряд чи корелює з . Тому вона не може бути цінним прогностичним сам. Друге. Уявіть, що відсутня, і ви прогнозуєте лише ; передбачення цієї одно змінної регресії зображується як червоний вектор, помилка як вектор, а коефіцієнт задається координатою (яка є кінцевою точкою ).X 2 X 2 Y X 2 X 1 Y e b Y YX2X2YX2X1YebY

введіть тут опис зображення

Тепер поверніться до повної моделі та зауважте, що досить корелює з . Таким чином, при введенні в модель може пояснити значну частину помилки зменшеної моделі, скорочуючи до . Це сузір'я: (1) не є суперником як предиктора ; і (2) є сміттяр , щоб забрати unpredictedness залишений , - робить супресорів . В результаті його дії деяка ступінь зросла прогнозова сила :e X 2 e e X 2 X 1 X 2 X 1 X 2 X 1 b 1 b X2eX2eeX2X1X2X1X2X1b1більший, ніж .b

Ну чому ж називається супресором до і як він може підсилити його, коли "придушує" його? Подивіться на наступну картину.X 1X2X1

введіть тут опис зображення

Він точно такий же, як і попередній. Подумайте ще раз про модель з єдиним передбачувачем . Цей прогноктор, звичайно, може бути розбитий на дві частини або компоненти (показані сірим кольором): частина, яка "відповідає" за передбачення (і, таким чином, збігається з цим вектором), і частина, яка "відповідає" за непередбачуваність (і таким чином паралельно ). Саме ця друга частина - частина, не має значення для - придушується коли цей супресор додається в модель. Невідповідна частина придушується, і, таким чином, враховуючи, що супресор сам не передбачає Y e X 1 Y X 2 YX1YeX1YX2Yбудь-яка значна, відповідна частина виглядає сильніше. Супресор не є предиктором, а скоріше фасилітатором для інших / інших прогнокторів. Тому що воно конкурує з тим, що перешкоджає їм передбачати.

Ознака коефіцієнта регресії супресора

Це ознака кореляції між супресором та змінною помилки залишеною моделлю скорочення (без супресора). На зображенні вище вона позитивна. В інших налаштуваннях (наприклад, поверніть напрямок ) це може бути негативним.X 2eX2

Змінення знаку придушення та коефіцієнта

Додавання змінної, яка буде обслуговувати супресор, може також не змінити ознаки деяких інших коефіцієнтів змінних. Ефекти "придушення" та "знак зміни" - це не одне і те ж. Більше того, я вважаю, що супресор ніколи не може змінити ознаку тих предикторів, яким вони служать супресорам. (Буде шокуюче відкриття, щоб додати супресор спеціально для полегшення змінної, а потім виявити, що він став дійсно сильнішим, але в зворотному напрямку! Буду вдячний, якби хтось міг мені показати, що це можливо.)

Придушення і діаграма Венна

Нормальна регресивна ситуація часто пояснюється за допомогою діаграми Венна.

введіть тут опис зображення

X 1 X 2 r 2 Y X 1 r 2 Y X 2YX1X2rYX12rYX22rY(X1.X2)2rY(X2.X1)2rYX1.X22rYX2.X12

X2X2X1


Приклад даних

         y         x1         x2

1.64454000  .35118800 1.06384500
1.78520400  .20000000 -1.2031500
-1.3635700 -.96106900 -.46651400
 .31454900  .80000000 1.17505400
 .31795500  .85859700 -.10061200
 .97009700 1.00000000 1.43890400
 .66438800  .29267000 1.20404800
-.87025200 -1.8901800 -.99385700
1.96219200 -.27535200 -.58754000
1.03638100 -.24644800 -.11083400
 .00741500 1.44742200 -.06923400
1.63435300  .46709500  .96537000
 .21981300  .34809500  .55326800
-.28577400  .16670800  .35862100
1.49875800 -1.1375700 -2.8797100
1.67153800  .39603400 -.81070800
1.46203600 1.40152200 -.05767700
-.56326600 -.74452200  .90471600
 .29787400 -.92970900  .56189800
-1.5489800 -.83829500 -1.2610800

Результати лінійної регресії:

введіть тут опис зображення

X2Y.224X1.419.538

X1X1rY0

До речі, сума кореляцій частин у квадраті перевищила R-квадрат:, .4750^2+(-.2241)^2 = .2758 > .2256що не відбудеться в нормальній регресійній ситуації (див. Діаграму Венна вище).


PS Закінчивши свою відповідь, я знайшов цю відповідь (від @gung) з приємною простою (схематичною) схемою, яка, схоже, узгоджується з тим, що я показав вище векторами.


4
+6, це дійсно чудово, і допоможе людям краще зрозуміти цю тему в майбутньому. Я збирався вказати на свою іншу відповідь (яка, я згоден, тут відповідає вашим); це може бути корисно, якщо люди хочуть спробувати візуалізувати ці речі з іншого погляду.
gung - Відновити Моніку

1
Кілька невеликих моментів: 1 Що стосується вашої заяви про те, що супресор не буде співвіднесений w / Y, b / ce * є корельованим w / Y (див. Тут докладніше), якщо X1 не включений в модель, X2 слід співвіднести з / в (звичайно, чи "суттєво" залежить від N). 2 Знову, чи може знак на x1 змінюватися (b * -> b1), якщо X1 дуже близький до некоррельованого w / Y за відсутності супресора & w / великих SE, знак на X1 у зменшеній моделі може бути перевернутий випадково поодинці через помилку вибірки, але це має бути нечасто та мінімально.
gung - Відновити Моніку

@gung, спасибі (1) Я жадаю ваших (та інших) відповідей, які могли б допомогти покращити / виправити міну. Тому приходьте, як у вас є час, розмістити думки, які ви прорисували у своєму коментарі; (2) будь-ласка, не робіть цього "щедрого": я не хочу заробляти капіталом; інших користувачів, "молодших", можливо, того варто.
ttnphns

Я не думаю, що моя інша відповідь "краща", ніж ваша; насправді я вважаю, що ваша є всеосяжнішою / загальнішою. Я думаю, що вона говорить про деякі подібні речі дещо по-іншому, тому може бути корисно для деяких читачів уважно ознайомитися з обома. Якщо ви хочете, я можу скласти невеличку публікацію, яка детально розглядає мій коментар, але я не хочу просто копіювати та вставляти тут свою іншу відповідь, і я не маю нічого додати до цього (або вашого). Повторно баунті, це послужить для привернення уваги / поглядів до цієї нитки, що буде добре, я не міг би її нагородити, але це здається дурним.
gung - Відновити Моніку

Мені дуже подобаються ці векторні геометричні способи мислення про речі. Ви не заперечуєте, якщо я запитаю, як ви намалювали свої сюжети? Це було "мишею" чимось схожим на MS Paint або використовуючи якесь більш досконале програмне забезпечення? Я раніше малював такі речі мишею і цікавився, чи існує простіший / ефективніший спосіб.
Джейк Вестфалл

18

Ось ще один геометричний вигляд придушення, але замість того, щоб бути в просторі спостереження, як приклад @ ttnphns, цей знаходиться у змінному просторі , просторі, де живуть щоденні розсіювачі.

y^i=xi+zixzxzx^i=12zixzx^i=12zi

Ми можемо побудувати наше рівняння регресії як площину у змінному просторі, який виглядає так:

площині

Заплутаний випадок

xzyxxyxzzxzyxxx

xxxxx

зніяковіло

xzz

xzxxzxzxzxzx^i=12zixzyxΔx+Δz=1+12=1.5

zxz

x

Випадок придушення

zyxxyxzzxxzzxx

придушення

zxx^i=12zixzyxΔx+Δz=1+12=0.5z

Ілюстративні набори даних

У випадку, якщо ви хочете пограти з цими прикладами, ось деякий код R для генерації даних, що відповідають типовим значенням, та виконання різних регресій.

library(MASS) # for mvrnorm()
set.seed(7310383)

# confounding case --------------------------------------------------------

mat <- rbind(c(5,1.5,1.5),
             c(1.5,1,.5),
             c(1.5,.5,1))
dat <- data.frame(mvrnorm(n=50, mu=numeric(3), empirical=T, Sigma=mat))
names(dat) <- c("y","x","z")

cor(dat)
#           y         x         z
# y 1.0000000 0.6708204 0.6708204
# x 0.6708204 1.0000000 0.5000000
# z 0.6708204 0.5000000 1.0000000

lm(y ~ x, data=dat)
# 
# Call:
#   lm(formula = y ~ x, data = dat)
# 
# Coefficients:
#   (Intercept)            x  
#     -1.57e-17     1.50e+00  

lm(y ~ x + z, data=dat)
# 
# Call:
#   lm(formula = y ~ x + z, data = dat)
# 
# Coefficients:
#   (Intercept)            x            z  
#      3.14e-17     1.00e+00     1.00e+00  
# @ttnphns comment: for x, zero-order r = .671 > part r = .387
#                   for z, zero-order r = .671 > part r = .387

lm(x ~ z, data=dat)
# 
# Call:
#   lm(formula = x ~ z, data = dat)
# 
# Coefficients:
#   (Intercept)            z  
#     6.973e-33    5.000e-01 

# suppression case --------------------------------------------------------

mat <- rbind(c(2,.5,.5),
             c(.5,1,-.5),
             c(.5,-.5,1))
dat <- data.frame(mvrnorm(n=50, mu=numeric(3), empirical=T, Sigma=mat))
names(dat) <- c("y","x","z")

cor(dat)
#           y          x          z
# y 1.0000000  0.3535534  0.3535534
# x 0.3535534  1.0000000 -0.5000000
# z 0.3535534 -0.5000000  1.0000000

lm(y ~ x, data=dat)
# 
# Call:
#   lm(formula = y ~ x, data = dat)
# 
# Coefficients:
#   (Intercept)            x  
#    -4.318e-17    5.000e-01  

lm(y ~ x + z, data=dat)
# 
# Call:
#   lm(formula = y ~ x + z, data = dat)
# 
# Coefficients:
#   (Intercept)            x            z  
#    -3.925e-17    1.000e+00    1.000e+00  
# @ttnphns comment: for x, zero-order r = .354 < part r = .612
#                   for z, zero-order r = .354 < part r = .612

lm(x ~ z, data=dat)
# 
# Call:
#   lm(formula = x ~ z, data = dat)
# 
# Coefficients:
#   (Intercept)            z  
#      1.57e-17    -5.00e-01  

Джейк, чи можу я попросити вас надати відповідь фактичними даними? Будь ласка, дайте три значення змінних для двох розглянутих вами випадків. Спасибі. (Я маю на увазі, не
роздумуйте

xz

@ttnphns Добре, я змінив свою відповідь. Дайте мені знати, що ви думаєте.
Джейк Вестпад

Запропонуйте, будь ласка, конкретний набір випадкових чисел у вашому коді. Я хочу відтворити саме ваші результати тут в Інтернеті: pbil.univ-lyon1.fr/Rweb (оскільки у мене на комп'ютері немає R - я не користувач R).
ttnphns

@ttnphns Для відтворення прикладних наборів даних вам не потрібно насіння. Будь-який набір даних, згенерований за допомогою наведеного вище коду, завжди матиме саме коефіцієнти кореляції / регресії та дисперсії, показані вище, хоча конкретні значення даних можуть змінюватись (без жодного наслідку). Для тих, хто не налаштовує / не використовує R, я завантажив два набори даних, згенерованих за допомогою наведеного вище коду, який ви можете завантажити та проаналізувати, використовуючи свій вибір пакету статистики. Посилання: (1) psych.colorado.edu/~westfaja/confounding.csv (2) psych.colorado.edu/~westfaja/suppression.csv . Я теж додаю насіння.
Джейк Вестпад

0

Ось як я думаю про супресорний ефект. Але, будь ласка, повідомте мене, якщо я помиляюся.

Ось приклад бінарного результату (класифікація, логістична регресія). Ми можемо бачити, що в X1 суттєвої різниці немає, немає різниці в X2, але складіть X1 і X2 разом (тобто правильні x1 для x2 або навпаки), і зразки можна класифікувати майже ідеально, і таким чином змінні зараз дуже значущі .

введіть тут опис зображення


Чи можете ви надрукувати у відповіді дані, що відповідають вашому малюнку?
ttnphns

Чи можете ви дати vore за номерами?
fossekall
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.