Обмеження взаємної інформації, заданої межею, на точкову взаємну інформацію


18

Припустимо, у мене є два множини X і і спільний розподіл ймовірностей над цими множинами . Нехай і позначають граничні розподіли по і відповідно.Yp(x,y)p(x)p(y)XY

Взаємна інформація між і визначається як: XY

I(X;Y)=x,yp(x,y)log(p(x,y)p(x)p(y))

тобто це середнє значення точкової взаємної інформації pmi .(x,y)log(p(x,y)p(x)p(y))

Припустимо, я знаю верхню та нижню межі на pmi : тобто я знаю, що для всіх виконується наступне: (x,y)x,y

klog(p(x,y)p(x)p(y))k

Яку верхню межу це означає для . Звичайно, це означає, що , але я хотів би, якщо це можливо, більш жорстке обмеження. Це здається мені правдоподібним, оскільки р визначає розподіл ймовірностей, а pmi не може прийняти своє максимальне значення (або навіть бути негативним) для кожного значення та .I(X;Y)I(X;Y)k(x,y)xy


1
Коли спільні та граничні ймовірності є рівномірними, pmi ( x , y ) рівномірно дорівнює нулю (і, отже, негативний, мабуть, суперечить вашому останньому твердженню, але лише ледве). Мені здається, якщо я не помиляюсь, що збурення цієї ситуації над малими підмножинами X×Y вказує на те, що межі на pmi майже нічого не говорять про I(X;Y) .
whuber

1
Насправді, якщо X і Y незалежні, то pmi(x,y) є постійним, незалежно від граничних розподілів. Отже, існує цілий клас розподілів для яких отримує своє максимальне значення для кожного та . p m i ( x , y ) x yp(x,y)pmi(x,y)xy
кардинал

Так, звичайно вірно, що pmi (x,y) може бути рівним для всіх x і y , але це не виключає більш жорсткої межі. Наприклад, не важко довести, що I(X;Y)k(ek1) . Це k2 коли k<1 , і є нетривіальним посиленням зв'язаної k коли k<1 . Мені цікаво, чи є нетривіальні межі, які тримаються більш загально.
Флоріан

1
Я сумніваюся, що для k 0 ви отримаєте кращу межу, ніж . Якщо ви хочете виглядати важче, спробуйте переформулювати своє запитання з точки зору розбіжності KL між p (x) p (y) і p (x, y). Нерівність Пінкера забезпечує нижню межу ІМ, що може підтвердити мою думку. Див. Також розділ 4 ajmaa.org/RGMIA/papers/v2n4/relog.pdf . O(k2)k0
vqv

Відповіді:


5

Мій внесок складається з прикладу. Він ілюструє деякі обмеження щодо того, як взаємна інформація може бути обмежена заданими межами по точкової взаємній інформації.

Візьмемо і р ( х ) = 1 / п для всіх х Х . Для будь-якого m { 1 , , n / 2 } нехай k > 0 є рішенням рівняння m e k + ( n - m ) e - k = n .X=Y={1,,n}p(x)=1/nxXm{1,,n/2}k>0

mek+(nm)ek=n.
Потім розміщуємо точкову масу у n m точок у просторі виробу { 1 , , n } 2 таким чином, щоб у кожному рядку та кожному стовпчику було m цих точок. (Це можна зробити декількома способами. Почніть, наприклад, з перших точок m у першому рядку, а потім заповніть решта рядків, перемістивши m точок на одну праворуч із умовою циклічної межі для кожного ряду). Розміщуємо точку маси e - k / n 2 в n, що залишилисяek/n2nm{1,,n}2mmmek/n2 балів. Сума цих точкових мас дорівнює n mn2nm тому вони дають міру ймовірності. Всі граничні ймовірності точки m
nmn2ek+n2nmn2ek=mek+(nm)ekn=1,
тому обидва граничні розподіли є рівномірними.
mn2ek+mnn2ek=1n,

За побудовою ясно , що для всіх х , у { 1 , ... , п } , і (після деяких обчислень) Я ( Х ; Y ) = к н мpmi(x,y){k,k},x,y{1,,n} з взаємної інформацією поводитися якдо2/2длядо0а такождодлядо.

I(X;Y)=knmn2ekkn2nmn2ek=k(1ekekek(ek+ek)ek),
k2/2k0kk


1

Я не впевнений, що це те, що ви шукаєте, оскільки це здебільшого алгебраїчно і не дуже корисно для властивостей p як розподілу ймовірностей, але ось щось ви можете спробувати.

Через межі на pmi чітко і, отже,p(x,y)p(x)p(y)ek. Ми можемо підставитиp(x,y)вI(X;Y),щоб отриматиI(X;Y)x,yp(p(x,y)p(x)p(y)ekp(x,y)p(x)p(y)ekp(x,y)I(X;Y)I(X;Y)x,yp(x)p(y)eklog(p(x)p(y)ekp(x)p(y))=x,yp(x)p(y)ekk

Я не впевнений, корисно це чи ні.

EDIT: Upon further review I believe this is actually less useful than the original upper bound of k. I won't delete this though in case it might hint at a starting point.


The value of this bound becomes apparent after you note x,yp(x)p(y)=1 and (since k0) that ek1.
whuber

Yes, when I realized that I made my edit.
Michael McGowan
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.