Чи є якась користь для величини у статистиці чи теорії інформації?
Чи є якась користь для величини у статистиці чи теорії інформації?
Відповіді:
Нехай позначає функцію густини ймовірностей (або стосовно Лебега, або міри підрахунку відповідно), кількість відомий як ентропія Renyi порядку 0 . Це узагальнення ентропії Шеннона, яке зберігає багато однакових властивостей. Для випадку інтерпретуємо як , і це відповідає стандартній ентропії Шеннона .
Рені представив це у своїй роботі
А. Реній, Про заходи інформації та ентропію , Зб. 4-й Берклі-симп. з математики, стат. і Проб. (1960), стор 547–561.
що варто прочитати не лише щодо ідей, але й для зразкового стилю експозиції.
Випадок є одним із найбільш поширених варіантів для і цей особливий випадок часто також називають ентропією Рені. Тут ми бачимо, що для випадкова величина, розподілена з щільністю .
Зауважимо, що - це опукла функція, і тому за нерівністю Дженсена маємо де права частина позначає ентропію Шеннона. Отже, ентропія Рені забезпечує нижню межу для ентропії Шеннона, і в багатьох випадках її легше обчислити.
Інший природний екземпляр, в якому виникає ентропія Рені, - це розгляд дискретної випадкової величини та незалежної копії . У деяких сценаріях ми хочемо знати ймовірність того, що , що за елементарним обчисленням є
Тут позначає щільність відносно міри підрахунку на множині значень .
Ентропія (загальна) Рені також, мабуть, пов'язана з вільною енергією системи в тепловій рівновазі, хоча я особисто не займаюся цим. (Дуже) недавній документ на цю тему є
JC Baez, ентропія Рені і вільна енергія , arXiv [kvant-ph] 1101.2098 (лют. 2011).