Як ентропія залежить від місця розташування та масштабу?


14

Ентропії безперервного розподілу з функцією щільності визначається як негативне в очікуванні і , отже , дорівнюєflog(f),

Hf=log(f(x))f(x)dx.

Ми також говоримо, що будь-яка випадкова величина , розподіл якої має щільність має ентропію (Цей інтеграл добре визначений, навіть якщо має нулі, тому що може бути прийнято рівним нулю при таких значеннях.)XfHf.flog(f(x))f(x)

Коли і - випадкові величини, для яких ( - константа), називається версією зміщеною на Аналогічно, коли ( - позитивна константа), називається версією масштабованою наПоєднання шкали зі зсувом даєXYY=X+μμYX μ.Y=XσσYX σ.Y=Xσ+μ.

Ці відносини трапляються часто. Наприклад, зміна одиниць вимірювання зміщується і масштабується.X

Як ентропія пов'язана з такою вY=Xσ+μX?

Відповіді:


17

Оскільки елемент ймовірності є зміна змінної еквівалентна звідкиXf(x)dx,y=xσ+μx=(yμ)/σ,

f(x)dx=f(yμσ)d(yμσ)=1σf(yμσ)dy

випливає, що щільність дорівнюєY

fY(y)=1σf(yμσ).

Отже, ентропія єY

H(Y)=log(1σf(yμσ))1σf(yμσ)dy

який при зміні змінної назад на виробляєx=(yμ)/σ,

H(Y)=log(1σf(x))f(x)dx=(log(1σ)+log(f(x)))f(x)dx=log(σ)f(x)dxlog(f(x))f(x)dx=log(σ)+Hf.

Ці розрахунки використовували основні властивості логарифму, лінійність інтеграції та той факт, що інтегрується в єдність (Закон сумарної ймовірності).f(x)dx

Висновок такий

Ентропія - це ентропія плюсY=Xσ+μXlog(σ).

Словом, зміщення випадкової величини не змінює її ентропії (ми можемо вважати ентропію такою, що залежить від значень щільності ймовірності, але не від того, де ці значення трапляються), одночасно масштабуючи змінну (яка для "розтягує" або "змазує" це) збільшує її ентропію на Це підтримує інтуїцію, що дистрибуції з високою ентропією "більше розповсюджені", ніж розподіли з низькою ентропією.σ1log(σ).


Як наслідок цього результату, ми можемо вибирати зручні значення та при обчисленні ентропії будь-якого розподілу. Наприклад, ентропію нормального розподілу можна знайти, встановивши іЛогарифм щільності в даному випадку єμσ(μ,σ)μ=0σ=1.

log(f(x))=12log(2π)x2/2,

звідки

H=E[12log(2π)X2/2]=12log(2π)+12.

Отже, ентропія нормального розподілу отримується просто додаванням до цього результату, даючи(μ,σ)logσ

H=12log(2π)+12+log(σ)=12log(2πeσ2)

як повідомляє Wikipedia .

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.