Чи є якась користь для величини у статистиці чи теорії інформації?


13

Чи є якась користь для величини у статистиці чи теорії інформації?

f(x)2dx


f - це pdf, так?
whuber

Так, - щільність. f
charles.y.zheng

@cardinal відповідь!

@mbq: Гаразд, я спробую набрати щось пізніше, що варте відповіді. :)
кардинал

Відповіді:


24

Нехай позначає функцію густини ймовірностей (або стосовно Лебега, або міри підрахунку відповідно), кількість відомий як ентропія Renyi порядку 0 . Це узагальнення ентропії Шеннона, яке зберігає багато однакових властивостей. Для випадку інтерпретуємо як , і це відповідає стандартній ентропії Шеннона .f

Hα(f)=1α1log(fαdμ)
α0α=1H1(f)limα1Hα(f)H(f)

Рені представив це у своїй роботі

А. Реній, Про заходи інформації та ентропію , Зб. 4-й Берклі-симп. з математики, стат. і Проб. (1960), стор 547–561.

що варто прочитати не лише щодо ідей, але й для зразкового стилю експозиції.

Випадок є одним із найбільш поширених варіантів для і цей особливий випадок часто також називають ентропією Рені. Тут ми бачимо, що для випадкова величина, розподілена з щільністю .α=2α

H2(f)=log(f2dμ)=log(Ef(X))
f

Зауважимо, що - це опукла функція, і тому за нерівністю Дженсена маємо де права частина позначає ентропію Шеннона. Отже, ентропія Рені забезпечує нижню межу для ентропії Шеннона, і в багатьох випадках її легше обчислити.log(x)

H2(f)=log(Ef(X))E(logf(X))=Elogf(X)=H(f)

Інший природний екземпляр, в якому виникає ентропія Рені, - це розгляд дискретної випадкової величини та незалежної копії . У деяких сценаріях ми хочемо знати ймовірність того, що , що за елементарним обчисленням є XXX=X

P(X=X)=i=1P(X=xi,X=xi)=i=1P(X=xi)P(X=xi)=eH2(f).

Тут позначає щільність відносно міри підрахунку на множині значень .fΩ={xi:iN}

Ентропія (загальна) Рені також, мабуть, пов'язана з вільною енергією системи в тепловій рівновазі, хоча я особисто не займаюся цим. (Дуже) недавній документ на цю тему є

JC Baez, ентропія Рені і вільна енергія , arXiv [kvant-ph] 1101.2098 (лют. 2011).


Я справді використовував ентропію Рені як заміну для ентропії Шеннона; приємно бачити підтвердження моєї інтуїції. Дякую за освічуючу відповідь.
charles.y.zheng

1
Багато (але не всі!) Властивостей та корисності ентропії Шеннона випливають із її опуклості. Якщо подивитися на набір результатів основ теорії інформації, вони більш-менш залежать від нерівності Дженсена. Отже, у певному (розпливчастому) розумінні не надто багато, що є (страшенно) особливим щодо як особливої ​​нелінійності, що призводить до поняття "інформація". logx
кардинал

1
Я бачу. Зокрема, мені потрібна властивість, що максимальний ентропійний спільний розподіл, який задовольняє заданим маргіналам, є добутком маргіналів (що ви отримаєте від незалежності)
charles.y.zheng
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.