Зараз я набагато краще розумію, що мене хвилювало щодо парних проти непарних Т-тестів та пов'язаних з ними р-значень. Дізнатися це було цікавою подорожжю, і по дорозі було багато сюрпризів. Одне здивування стало наслідком розслідування внеску Майкла. Це безперечно з точки зору практичних порад. Більше того, він говорить те, в що я думаю, що практично всі статистики вірять, і у нього є кілька підказок, щоб підтвердити це. Однак, як фрагмент теорії, це не є буквально правильним. Я виявив це, опрацювавши формули для p-значень, а потім ретельно продумав, як використовувати формули, щоб привести до зустрічних прикладів. Я математик за навчанням, а зустрічний приклад - це "зустрічний приклад математика". Це не те, що ви зіткнулися б у практичній статистиці, те, про що я намагався дізнатися, коли я задавав своє оригінальне запитання.
Ось R-код, який дає зустрічний приклад:
vLength <- 10; meanDiff <-10^9; numSamples <- 3;
pv <- function(vLength,meanDiff) {
X <- rnorm(vLength)
Y <- X - meanDiff + rnorm(vLength,sd=0.0001)
Paired <- t.test(X,Y,var.equal=T,paired=T)
NotPaired <- t.test(X,Y,var.equal=T,paired=F)
c(Paired$p.value,NotPaired$p.value,cov(X,Y))
}
ans <- replicate(numSamples,pv(vLength,meanDiff))
Зверніть увагу на наступні особливості: X і Y - це два 10-кортежі, різниця яких величезна і майже майже постійна. Для багатьох значущих показників співвідношення становить 1.000 .... Значення р для непарного тесту приблизно в 10 ^ 40 разів менше, ніж значення р для парного тесту. Таким чином, це суперечить рахунку Майкла, за умови, що він читає його рахунок буквально, в математичному стилі. Тут закінчується частина моєї відповіді, що стосується відповіді Майкла.
Ось думки, підказані відповіддю Петра. Під час обговорення мого первісного питання я припустив у коментарі, що два конкретні розподіли значень р, які звучать по-різному, насправді однакові. Зараз я можу це довести. Що важливіше, це те, що доказ розкриває фундаментальний характер p-значення, настільки фундаментального, що жоден текст (який я натрапив) не намагається пояснити. Можливо, всі професійні статистики знають секрет, але мені, визначення p-значення, завжди здавалося дивним і штучним. Перш ніж роздати секрет статистику, дозвольте мені уточнити питання.
Нехай і вибирають випадковим чином і незалежно два випадкових пар з деякого нормального розподілу. Є два способи отримання р-значення з цього вибору. Один - використовувати непарний t-тест, а другий - використовувати парний t-тест. Моя здогадка полягала в тому, що розподіл p-значень, які ви отримуєте, є однаковим у двох випадках. Коли я вперше почав думати про це, я вирішив, що ця гіпотеза була нерозумною і помилковою: тест непарного пов'язується з t-статистикою на ступеня свободи, а парний тест - на t- статистика наn 2 ( n - 1 ) n - 1n > 1н2 ( n - 1 )n - 1ступенів свободи. Ці два розподіли різні, тож як на землі можуть бути пов'язані розподіли p-значень однакові? Лише після багато подальших роздумів я зрозумів, що це очевидне відхилення моєї гіпотези було надто пристойним.
Відповідь випливає з наступних міркувань. Припустимо, - безперервний pdf (тобто його інтеграл має значення перше). Зміна координат перетворює пов'язаний розподіл в рівномірний розподіл на . Формула -
і це багато пояснюється у багатьох текстах. Що тексти не вказують у контексті p-значень, це те, що саме така формула дає p-значення з t-статистики, колиf: ( 0 , ∞ ) → ( 0 , ∞ )[ 0 , 1 ]
p = ∫∞тf( и )гс
f- pdf для t-дистрибутива. (Я намагаюся тримати дискусію якомога простішою, бо це справді просто. Повніше обговорення розглядало б односторонні та двосторонні тести трохи по-різному, можуть виникнути фактори 2, а t-статистика може лежати в замість . Я опускаю все це безладдя.)
( - ∞ , ∞ )[ 0 , ∞ )
Точно така ж дискусія застосовується і при знаходженні р-значення, пов'язаного з будь-яким з інших стандартних розподілів у статистиці. Ще раз, якщо дані розподіляються випадковим чином (на цей раз за деяким різним розподілом), то отримані p-значення розподіляться рівномірно в .[ 0 , 1 ]
Як це стосується наших парних та непарних тестів? Справа в парному t-тесті, з вибірками, обраними незалежно та випадковим чином, як у моєму коді вище, значення t дійсно слідує за t-розподілом (з ступенем свободи). Отже, p-значення, отримані в результаті повторення вибору X і Y, багато разів слідують за рівномірним розподілом на . Те саме стосується непарного t-тесту, хоча цього разу t-розподіл має ступеня свободи. Тим не менш, p-значення, що призводять, також мають рівномірний розподіл на , за загальним аргументом, який я наводив вище. Якщо вищевказаний код Пітера застосовується для визначення p-значень, то ми отримуємо два різних методики виведення випадкової вибірки з рівномірного розподілу на[ 0 , 1 ] 2 ( n - 1 ) [ 0 , 1 ] [ 0 , 1 ]n - 1[ 0 , 1 ]2 ( n - 1 )[ 0 , 1 ][ 0 , 1 ] . Однак обидві відповіді не є незалежними.