Чи можна довіряти результатам ANOVA для нерозподіленого DV?


22

Я проаналізував експеримент із повторними заходами ANOVA. ANOVA - це 3x2x2x2x3 з 2 коефіцієнтами між суб'єктами та 3 в межах (N = 189). Коефіцієнт помилок - залежна змінна. Розподіл частоти помилок має перекос 3,64 і куртоз 15,75. Перекос і куртоз є результатом 90% частоти помилок, тобто 0. Читання попередніх тем на тестах на нормальність тут мене трохи заплутало. Я думав, що якщо у вас є дані, які зазвичай не поширюються, вам було б цікаво перетворити їх, якщо це можливо, але здається, що багато людей думають, що аналіз ненормованих даних за допомогою ANOVA або T-тесту є прийнятним. Чи можна довіряти результатам ANOVA?

(FYI, В майбутньому я маю намір проаналізувати цей тип даних у R зі змішаними моделями з біноміальним розподілом)


1
Чи можете ви зв’язатись із деякими з цих тем? Мій інстинкт кишки "NOOO no no no", але я навряд чи фахівець і мені було б цікаво прочитати деякі з цих аргументів.
Метт Паркер

4
Ви впевнені, що не можете довіряти будь-яким p-значенням, отриманим від F-розподілів, з такими видами даних!
whuber

3
Багато хто наводить надійність ANOVA як виправдання для використання її з ненормальними даними. ІМХО, стійкість не є загальним атрибутом тесту, але ви повинні точно вказати а) проти яких порушень його припущень є надійним тест (нормальність, сферичність, ...), б) наскільки ці порушення не мають великого значення ефект, в) які передумови, щоб тест демонстрував стійкість (великий і рівний розмір комірок ...). У вашому дизайні розділеного сюжету я хотів би, щоб хтось висловив точні припущення щодо сферичності та рівності матриць коваріації. У 2-факторній справі це вже розумно.
каракал

3
@Matt Здається, що 90% залишків дорівнює нулю. Якщо це так, жодна трансформація не може зробити залишки віддаленими близькими до нормальних. Симуляційні дослідження показали, що р-значення F-тестів дуже чутливі до відхилень від нормальності. (У вашому випадку цілком ймовірно, що деякі знаменники F-тестів будуть нульовими: різкий показник того, наскільки все може піти не так.) Вам потрібен інший підхід. Що робити, залежить від того, чому стільки залишків дорівнює нулю. Відсутність достатньої точності в вимірах?
whuber

2
@Matt, що звучить більш доречно, якщо припустити, що ваші дані є рахунковими. Інший привабливий розгляд - нульовий завищений негативний біноміальний відповідь ( ats.ucla.edu/stat/r/dae/zinbreg.htm ).
whuber

Відповіді:


20

Як і інші параметричні тести, аналіз дисперсії передбачає, що дані відповідають нормальному розподілу. Якщо ваша змінна величина зазвичай не розподіляється, можливо, ви збільшуєте шанс на помилковий позитивний результат, якщо аналізувати дані за допомогою анова або іншого тесту, який передбачає нормальність. На щастя, анова не дуже чутлива до помірних відхилень від нормальності; симуляційні дослідження, використовуючи різноманітні ненормальні розподіли, показали, що помилково позитивна швидкість не сильно впливає на це порушення припущення (Glass et al. 1972, Harwell et al. 1992, Lix et al. 1996). Це тому, що коли ви берете велику кількість випадкових вибірок з популяції, засоби цих вибірок приблизно нормально розподіляються, навіть коли популяція не є нормальною.

Можна перевірити придатність набору даних для нормального розподілу. Я не пропоную вам це робити, оскільки багато наборів даних, які є суттєво ненормальними, були б цілком доречними для анова.

Натомість, якщо у вас досить великий набір даних, я пропоную вам просто переглянути гістограму частоти. Якщо це виглядає більш-менш нормально, продовжуйте виконувати анову. Якщо це виглядає як звичайний розподіл, який був висунутий в одну сторону, як сульфатні дані вище, ви повинні спробувати різні перетворення даних і побачити, чи якась із них робить гістограму більш нормальною. Якщо це не працює, а дані все ще виглядають сильно ненормальними, можливо, все одно добре аналізувати дані за допомогою anova. Однак ви можете проаналізувати його за допомогою непараметричного тесту. Практично кожен параметричний статистичний тест має непараметричний замінник, такий як тест Крускала – Уолліса замість одностороннього анова, тест Вілкоксона з підписом ранжу замість парного тесту та кореляція рангів Спірмена замість лінійної регресії. Ці непараметричні тести не припускають, що дані відповідають нормальному розподілу. Вони припускають, що дані в різних групах мають однаковий розподіл, як один у одного; якщо різні групи мають різну форму розподілу (наприклад, одна перекошена вліво, інша - перекошена вправо), непараметричний тест може бути не кращим, ніж параметричний.

Список літератури

  1. Скло, Г. В., П. П. Пекхем та Дж. Р. Сандерс. 1972. Наслідки невиконання припущень, що лежать в основі аналізу фіксованих ефектів дисперсії та коваріації. Преподобний Навч. Рез. 42: 237-288.
  2. Harwell, MR, EN Рубінштейн, WS Hayes та CC Olds. 1992. Узагальнення результатів Монте-Карло в методологічних дослідженнях: одно- та двофакторні фіксовані ефекти випадків ANOVA J. Educ. Стат. 17: 315-339.
  3. Lix, LM, JC Keselman та HJ Keselman. 1996. Насліджено наслідки порушень припущення: кількісний огляд альтернатив односторонньому аналізу тесту на дисперсію F. Преподобний Навч. Рез. 66: 579-619.

7
Я, можливо, просто демонструю своє невігластво тут, але чи не припущення ANOVA про те, що залишки є нормальними? У такому випадку насправді не має значення, чи сама змінна є не нормальною, поки залишки відповідають шаблону.
richiemorrisroe

5
Можливо, питання було відредаговано, але я дійсно не розумію, чому ця відповідь була схвалена і прийнята. Це гідна загальна порада, але майже не має нічого спільного з цим конкретним випадком "Перекос і куртоз є результатом того, що 90% коефіцієнта помилок означає 0". У цьому випадку відповідь повинна бути ні, ні і ні.
Ерік

8

Зокрема, щодо частоти помилок як DV, Dixon (2008) дуже ретельно демонструє, що тестування гіпотез через нуль за допомогою ANOVA може спричинити як збільшення частоти помилкової тривоги (називаючи ефекти «значущими», коли їх немає), так і збільшення частоти пропусків (відсутні реальних ефектів). Він також показує, що моделювання змішаних ефектів, що визначає біноміально розподілену помилку, є більш підходящим підходом до аналізу даних швидкості.


4

Ви не можете довіряти ANOVA такому великому перекосу і великій кількості 0. Більш підходящим методом буде використання кількості помилок у якості DV (таким чином перетворення DV на дані підрахунку) та проведення аналізу Пуассона. Цей підхід вимагає використання змішаного аналізу ефектів та визначення сімейства розподілу помилок як Пуассона. Стаття Dixon (2008) *, згадана Майком Лоуренсом, використовує змішаний аналіз ефектів в R, але має двобічні результати. Я повністю перейшов до виконання R для більшості моїх повторних аналізів, оскільки так багато моїх змінних результатів є двочленними. Відповідний пакет R є lme4.


2

Хуан запропонував багато, хоча я повторюю інших і повторю, що для кращої точності самі змінні можуть бути ненормальними, доки їх залишки не будуть. Крім того, спрощений і дещо структурований відповідь (за допомогою анотованої діаграми потоку) доступний на сайті yellowbrickstats.com .


1
Вибачте, але -1 від мене. Це взагалі вірно, але залишків не буде, якщо у нас буде інфляція нулів. Я думаю, що відповіді не повинні охоплювати лише загальні аспекти, а стосуватись конкретного питання.
Ерік

1

Стельові ефекти тут є проблемою. Непараметричний тест - це ваша найбезпечніша ставка, хоча ANOVA стійкі до цього порушення нормальності, якщо n великий. Зазвичай люди просто використовують гістограму для перевірки цього, але якщо проблема з залишками, вона може бути більш розвиненою. Також майте на увазі, ЯК це впливає на ваші результати (не тільки так). Pallant (2007), ймовірно, скаже, що це збільшує ваш шанс помилки одного типу, тому якщо ви зменшите критичну альфа, ви пом’якшите це.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.