Тестування гіпотез та загальна відстань варіації проти дивергенції Кульбека-Лейблера


10

У своєму дослідженні я зіткнувся з такою загальною проблемою: у мене є два розподіли і по одному домену і велика (але кінцева) кількість вибірок з цих розподілів. Зразки незалежно та однаково розподіляються з одного з цих двох розподілів (хоча розподіли можуть бути пов’язані між собою: наприклад, може бути сумішшю та деяким іншим розподілом.) Нульовою гіпотезою є те, що вибірки походять з , альтернативна гіпотеза полягає в тому, що зразки походять з .Q Q P P QPQQPPQ

Я намагаюся охарактеризувати тип I і тип II помилки в тестуванні зразка, знаючи розподілу і . В Зокрема, мене цікавить , що обмежує одну помилку дали інший, на додаток до знання і .Q P QPQPQ

Я задав запитання на math.SE щодо відношення відстані загальної варіації між і до тестування гіпотез, і отримав відповідь, яку я прийняв. Ця відповідь має сенс, але я все ще не зміг обернути свій розум навколо глибшого сенсу, що стоїть за співвідношенням відстані від загальної варіації та тестуванням гіпотез, оскільки це стосується моєї проблеми. Таким чином, я вирішив звернутися до цього форуму.QPQ

Перше моє запитання: чи залежить загальна варіація від суми ймовірностей помилок типу I та типу II незалежно від методу тестування гіпотез, який використовується? По суті, доки існує ненульова ймовірність того, що вибірка могла бути сформована будь-яким з розподілів, ймовірність принаймні однієї з помилок повинна бути ненульовою. В основному, ви не можете уникнути можливості того, що ваш тестувач гіпотез зробить помилку, незалежно від того, яку кількість обробки сигналу ви не зробите. І сумарна варіація обмежує саме таку можливість. Чи правильно моє розуміння?

Існує також інша залежність між помилками типу I та II та основними розподілами ймовірностей і : розбіжність KL . Таким чином, моє друге питання: чи пов'язана дивергенція KL застосовна лише до одного методу тестування певної гіпотези (здається, що існує багато методу коефіцієнта ймовірності ймовірності) чи можна застосовувати її взагалі для всіх методів тестування гіпотез? Якщо він застосований у всіх методах тестування гіпотез, то чому він, здається, настільки сильно відрізняється від зв'язаної Загальної варіації? Чи поводиться він інакше?QPQ

І моє основне питання: чи є встановлений набір обставин, коли я повинен використовувати або пов'язаний, або це суто питання зручності? Коли слід отримувати результат, використовуючи одне обмежене утримування, використовуючи інше?

Прошу вибачення, якщо ці питання банальні. Я є вченим-комп’ютером (тому мені здається, що це модна проблема зіставлення шаблону :). Я досить добре знаю теорію інформації, а також маю вищу освіту в теорії ймовірностей. Однак я тільки починаю вивчати всі матеріали, які перевіряють цю гіпотезу. Якщо потрібно, я зроблю все можливе, щоб уточнити свої питання.

Відповіді:


8

Література: Більшість потрібних відповідей, безумовно, є у книзі Лемана та Романо . Книга Інгстера та Сусліни розглядає більш складні теми та може дати додаткові відповіді.

Відповідь: Однак, речі дуже прості: (або ) - це "справжня" відстань, яку потрібно використовувати. Це не зручно для формальних обчислень (особливо з вимірюванням товару, тобто, коли у вас є зразок розміру ) та інші відстані (це верхні межі ). Дозвольте розповісти деталі. T V n L 1L1TVnL1

Розвиток: Позначимо через

  • α 0 P 0 P 1g1(α0,P1,P0) мінімальна помилка II типу з помилкою I типу для та нульова та альтернативна.α0P0P1
  • t ( 1 - t ) P 0 P 1g2(t,P1,P0) сума мінімально можливих помилок типу I + типу II з та - нульовою та альтернативною.t(1t)P0P1

Це мінімальні помилки, які потрібно проаналізувати. Рівності (не нижчі межі) наведені нижче в теоремі 1 (з точки зору відстані (або відстані телевізора, якщо ви такі)). Нерівності між відстані та іншими відстанями задаються теоремою 2 (зауважте, що для нижньої межі помилок потрібні верхні межі або ). L 1 L 1 T VL1L1L1TV

Що використовувати тоді, це питання зручності, оскільки часто важче обчислити, ніж Хеллінгер чи Куллбек, або . Основний приклад такої різниці з'являється, коли і це заходи продукту які виникають у випадку, коли ви хочете перевірити проти з розміром iid вибірки. У цьому випадку та інші отримуються легко з (те саме для та ), але ви не можете цього зробити з ...χ 2 P 1 P 0 P i = p n i i = 0 , 1 p 1 p 0 n h ( P 1 , P 0 ) h ( p 1 , p 0 ) K L χ 2 L 1L1χ2P1P0Pi=pin i=0,1p1p0nh(P1,P0)h(p1,p0)KLχ2L1

Визначення: Спорідненість між двома заходами та визначається як .ν 1 ν 2 A 1 ( ν 1 , ν 0 ) = min ( d ν 1 , d ν 0 )A1(ν1,ν0)ν1ν2

A1(ν1,ν0)=min(dν1,dν0)

Теорема 1 Якщо(половина телевізора), потім |ν1ν0|1=|dν1dν0|

  • 2A1(ν1,ν0)=(ν1+ν0)|ν1ν0|1 .
  • g1(α0,P1,P0)=supt[0,1/α0](A1(P1,tP0)tα0)
  • g2(t,P1,P0)=A1(tP0,(1t)P1)

Я написав доказ тут .

Теорема 2 Для розподілів ймовірностей і : Р 0 1P1P0

12|P1P0|1h(P1,P0)K(P1,P0)χ2(P1,P0)

Ці межі пояснюються кількома відомими статистиками (LeCam, Pinsker, ...). - відстань Хеллінгера, KL розбіжність і розбіжність chi-квадрата. Вони всі тут визначені . і докази цих меж наводяться (подальші речі можна знайти в книзі Цибакова ). Є також щось, що майже нижня межа Хеллінгера ...hKχ2L1


1
Дякую за відповідь, я зараз намагаюся її перетравити. У своїй проблемі я допустив помилку типу I. У мене також є два розподіли і . Я знаю, що телебачення між ними (як і KL). Отже, що ви говорите, це те, що телевізор дає більш жорстку нижню межу помилки типу II, ніж KL, це означає, що я повинен використовувати телевізор для свого аналізу, якщо я хочу якомога жорсткіше нижньої межі? P0P1
MBM

І дякую за пропозицію книги Леманна і Романо, це виглядає дуже корисно і не надто головно. Також моя бібліотека володіє копією! :)
MBM

@Bullmoose, що теорема 1 говорить тут, що ТВ (або L1) пов'язане з рівністю до що пов'язано з рівністю g_2 або g_1 (мінімальна сума помилок або помилка типу II з контрольованим типом I). Тут немає нерівностей. Нерівності настають тоді, коли вам потрібно перейти від L1 до Kullback. A1
robin girard

На жаль, у мене є лише мінімальний досвід в теорії мір. Я думаю, я якось розумію, що таке і , але мені не зрозуміло на . Скажіть, у мене є два гауссові розподіли. Телевізор (або L1) між ними Але що було б ? З визначення, це виглядає як ...g1g2A1
12π|exp(x2/2σ12)σ1exp(x2/2σ22)σ2|dx
A1
12πmin(exp(x2/2σ12)σ1,exp(x2/2σ22)σ2)dx
MBM

... але як відображає це з першої кулі в теоремі? (ν1+ν2)
MBM

1

Відповідь на ваше перше питання: Так, один мінус мінус загальної відстані варіації є нижньою межею щодо суми помилок типу I + типу II. Ця нижня межа застосовується незалежно від обраного алгоритму тестування гіпотез.

Обгрунтування: відповідь ви отримали на Math.SE дає стандартне доказ цього факту. Зафіксуйте тест гіпотези. Нехай позначає сукупність результатів, за якими цей тест відкине нульову гіпотезу (такий набір повинен існувати завжди). Тоді обчислення у відповіді Math.SE доводить нижню межу.A

(Строго кажучи, цей рядок міркувань передбачає, що ваш тест на гіпотезу є детермінованою процедурою. Але навіть якщо ви розглядаєте рандомізовані процедури, можна показати, що все-таки застосовується така ж межа).

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.