Коротка відповідь , що ваше припущення вірне тоді і тільки тоді, коли існує позитивна кореляція внутріклассових в даних . Емпірично кажучи, більшість кластерних наборів даних більшість часу демонструють позитивну внутрішньокласну кореляцію, що означає, що на практиці ваша думка зазвичай відповідає дійсності. Але якщо внутрішньокласова кореляція дорівнює 0, то два згадані вами випадки однаково інформативні. І якщо внутрішньокласова кореляція негативна , то насправді менш інформативно проводити менше вимірювань на більшій кількості предметів; ми насправді вважаємо за краще (що стосується зменшення дисперсії оцінки параметра) проводити всі наші вимірювання на одному предметі.
Статистично Є дві точки зору , з якої ми можемо думати про це: а випадкові ефекти (або змішаної ) моделі , які ви згадуєте в своєму питанні, або гранична модель , яка в кінцевому підсумку бути трохи більш інформативними тут.
Модель випадкових ефектів (змішана)
Скажімо, у нас є набір з яти предметів, від яких ми проводили вимірювань кожен. Тоді проста модель випадкових ефектів го вимірювання з го предмета може бути
де - фіксований перехоплення, - ефект випадкового суб'єкта (з варіація ), - термін помилки на рівні спостереження (з дисперсією ), і останні два випадкові доданки незалежні.m j i y i j = β + u i + e i j , β u i σ 2 u e i j σ 2 eнмji
уij= β+уi+еi j,
βуiσ2уеi jσ2е
У цій моделі представляє середнє значення сукупності, і при збалансованому наборі даних (тобто рівному числі вимірювань від кожного суб'єкта) найкраща наша оцінка є просто середньою вибіркою. Отже, якщо ми беремо "більше інформації" для меншої дисперсії для цієї оцінки, то в основному ми хочемо знати, як дисперсія середнього зразка залежить від та . З трохи алгебри ми можемо це зробити
n m var ( 1βнмσ2u>0nм
вар ( 1n м∑i∑jуi j)= var ( 1n м∑i∑jβ+ уi+ еi j)= 1н2м2var ( ∑i∑jуi+ ∑i∑jеi j)= 1н2м2( м2∑iвар ( уi) + ∑i∑jvar ( еi j) )= 1н2м2( н м.)2σ2у+ n м σ2е)= σ2ун+σ2еn м.
Вивчаючи цей вираз, ми можемо побачити, що
коли є будь-яка дисперсія предмета (тобто ), збільшення кількості предметів ( ) зробить обидва ці терміни меншими, збільшуючи при цьому кількість вимірювань на предмет (
σ2у> 0нм) зробить лише другий член меншим. (Про практичне значення цього для розробки проектів реплікації на багатьох сайтах дивіться у
цій публікації в блозі, про яку я писав деякий час тому .)
Тепер ви хотіли знати, що відбувається, коли ми збільшуємо або зменшуємо або , утримуючи постійну загальну кількість спостережень. Тож для цього ми вважаємо постійною, так що весь вираз дисперсії просто виглядає як
що є максимально можливим, коли є великим можливо (до максимуму ; в цьому випадку , тобто ми беремо по одному виміру з кожного предмета).n n m σ 2 uмнn мnn=nmm=1
σ2ун+ постійна ,
нn = n мm = 1
Моя коротка відповідь стосувалася внутрішньокласової кореляції, тож де це вміщується? У цій простій моделі випадкових ефектів внутрішньокласова кореляція є
(ескіз деривації тут ). Отже, можемо записати рівняння дисперсії вище як
Це насправді не додає жодного розуміння того, що ми вже бачили вище, але це нас змушує замислитись: оскільки внутрішньокласова кореляція - це добросовісний коефіцієнт кореляції, а коефіцієнти кореляції можуть бути негативними, що трапиться (і що це означатиме), якщо внутрішньокласний кореляція була негативною? var(1
ρ = σ2уσ2у+ σ2е
вар ( 1n м∑i∑jуi j) = σ2ун+ σ2еn м= ( ρн+ 1 - ρn м) (σ2у+ σ2е)
У контексті моделі випадкових ефектів від'ємна кореляція у внутрішньому класі насправді не має сенсу, оскільки це означає, що предметна дисперсія є якимось негативним (як ми бачимо з рівняння наведеного вище, і як пояснено тут і тут ) ... але відхилення не можуть бути негативними! Але це не означає, що концепція негативної внутрішньокласової кореляції не має сенсу; це просто означає, що модель випадкових ефектів не має жодного способу виразити це поняття, що є невдачею моделі, а не поняття. Щоб адекватно висловити це поняття, нам потрібно розглянути граничну модель.σ2уρ
Маргінальна модель
Для цього ж набору даних ми могли б розглянути так звану граничну модель ,
де в основному ми відтіснили ефект випадкового предмета від раніше в термін помилки так що у нас . У випадкових ефектів моделі ми розглянули два випадкових умови і , щоб бути н.о.р. , але в маргінальному моделі ми замість того, щоб розглядати слідувати блочно-діагональна матриця ковариаций подібно до
уi j
уi j=β+ е∗i j,
уiеi jе∗i j= уi+ еi jуiеi jе∗i jСC = σ2⎡⎣⎢⎢⎢⎢⎢R0⋮00R⋮0⋯⋯⋱⋯00⋮R⎤⎦⎥⎥⎥⎥⎥, R = ⎡⎣⎢⎢⎢⎢⎢1ρ⋮ρρ1⋮ρ⋯⋯⋱⋯ρρ⋮1⎤⎦⎥⎥⎥⎥⎥
Словом, це означає, що під граничною моделлю ми просто вважаємо - очікувана кореляція між двома s від одного предмета (вважаємо, що кореляція між предметами дорівнює 0). Коли
ρе∗ρпозитивно, два спостереження, проведені з одного і того ж предмета, як правило, є більш схожими (ближче один до одного), в середньому, ніж два спостереження, проведені випадковим чином із набору даних, ігноруючи кластеризацію за суб'єктами. Коли є
негативним , два спостереження , зроблені з того ж предмета , як правило,
менш схожі (далі один від одного), в середньому, ніж двох спостережень повністю складених у випадковому порядку. (Більше інформації про це тлумачення у
запитанні / відповіді тут .)
ρ
Отже, коли ми дивимось на рівняння дисперсії середнього зразка за граничною моделлю, маємо
- це той самий вираз дисперсії, який ми отримали вище для моделі випадкових ефектів, лише за допомогою , що відповідає нашій примітці вище, що
var(1nm∑i∑jyij)=var(1nm∑i∑jβ+e∗ij)=1n2m2var(∑i∑je∗ij)=1n2m2(n(mσ2+(m2−m)ρσ2))=σ2(1+(m−1)ρ)nm=(ρn+1−ρnm)σ2,
σ2e+σ2u=σ2e∗ij=ui+eij. Перевага цієї (статистично еквівалентної) точки зору полягає в тому, що тут ми можемо думати про негативну внутрішньокласну кореляцію, не потребуючи посилань на будь-які дивні поняття, такі як негативна дисперсія предмета. Негативні внутрішньокласові кореляції просто природно вписуються в ці рамки.
(BTW, лише швидкий бік, щоб зазначити, що другий-останній рядок деривації вище означає, що ми повинні мати , інакше все рівняння від'ємне, але варіації не може бути негативним! Отже, існує нижня межа внутрішньокласової кореляції, яка залежить від того, скільки вимірювань у нас на кластері. Для (тобто ми вимірюємо кожен предмет двічі), внутрішньокласова кореляція може перейти аж до ; для він може опускатися лише до ; і т. д. Факт забав!)ρ≥−1/(m−1)m=2ρ=−1m=3ρ=−1/2
Отже, нарешті, розглядаючи загальну кількість спостережень як постійну, ми бачимо, що другий-останній рядок виведення вище просто виглядає як
Отже, коли , маючи якнайменше (щоб ми зробили менше вимірювань більшої кількості предметів - в межах, 1 вимірювання кожного предмета) робить дисперсію оцінки якомога меншою. Але коли , ми насправді хочемо, щоб було якомога більшим (таким чином, щоб ми обмежили всі вимірювань з одного предмета), щоб зробити дисперсію якомога меншою. І колиnm
(1+(m−1)ρ)×positive constant.
ρ>0mρ<0mnmρ=0 , дисперсія оцінки є лише постійною, тому наш розподіл і не має значення.
mn