Як інтерпретувати диференційну ентропію?


15

Нещодавно я прочитав цю статтю про ентропію дискретного розподілу ймовірностей. Він описує приємний спосіб мислення про ентропію як очікувану кількість бітів (принаймні, при використанні у вашому визначенні ентропії), необхідного для кодування повідомлення, коли ваше кодування є оптимальним, враховуючи розподіл ймовірності вживаних вами слів.log2

Однак, поширюючись на безперервний випадок, як тут, я вважаю, що такий спосіб мислення руйнується, оскільки для будь-якого безперервного розподілу ймовірностей p ( x ) (будь ласка, виправте мене, якщо це неправильно), тому я був цікаво, чи існує приємний спосіб думати про те, що означає безперервна ентропія, як і у випадку з дискретним випадком.xp(x)=p(x)


Ви намагалися прочитати статті Вікіпедії про ентропію та диференційну ентропію?
ttnphns

Постійний розподіл не має функції масової ймовірності. Аналог у безперервному випадку є інтегралом щільності ймовірності, а інтеграл у всьому діапазоні x дорівнює 1.
Майкл Р. Черник

@MichaelChernick Я не говорив, що у нього був такий, але спосіб роздуму про дискретний випадок залежить від того, що сума дорівнює 1.
dippynark

@ttnphns ні у мене немає, але я перевірю їх зараз, дякую.
dippynark

Дивіться також stats.stackexchange.com/questions/66186/… для тлумачення ентропії Шеннона. Деякі ідеї можна передати.
kjetil b halvorsen

Відповіді:


15

Не існує трактування диференціальної ентропії, яке було б таким же значущим або корисним, як і ентропія. Проблема з безперервними випадковими змінними полягає в тому, що їх значення, як правило, мають 0 ймовірності, і тому потрібно кодувати нескінченну кількість біт.

[nε,(n+1)ε[

p(x)log2p(x)dxlog2ε

а не диференціальна ентропія. Ця кількість в певному сенсі є більш значущою, але буде розходитися до нескінченності, оскільки ми будемо робити менші та менші інтервали. Це має сенс, оскільки нам потрібно більше і більше бітів, щоб кодувати, в який з багатьох інтервалів падає значення нашого випадкового значення.

Більш корисною кількістю для спостереження за постійними розподілами є відносна ентропія (також розбіжність Куллбека-Лейблера). Для дискретних розподілів:

DKL[P||Q]=xP(x)log2P(x)Q(x).

PlogQ2(x)x

DKL[p∣∣q]=p(x)log2p(x)q(x)dx,

log2ε

p(x)λ(x)=1

p(x)log2p(x)dx=DKL[p∣∣λ].

log2nε(n+1)εp(x)dxnlogελ

Дивіться розмову Серхіо Верду, де ви знайдете чудове вступ до відносної ентропії.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.