Оскільки елемент ймовірності є зміна змінної еквівалентна звідкиXf(x)dx,y=xσ+μx=(y−μ)/σ,
f(x)dx=f(y−μσ)d(y−μσ)=1σf(y−μσ)dy
випливає, що щільність дорівнюєY
fY(y)=1σf(y−μσ).
Отже, ентропія єY
H(Y)=−∫∞−∞log(1σf(y−μσ))1σf(y−μσ)dy
який при зміні змінної назад на виробляєx=(y−μ)/σ,
H(Y)=−∫∞−∞log(1σf(x))f(x)dx=−∫∞−∞(log(1σ)+log(f(x)))f(x)dx=log(σ)∫∞−∞f(x)dx−∫∞−∞log(f(x))f(x)dx=log(σ)+Hf.
Ці розрахунки використовували основні властивості логарифму, лінійність інтеграції та той факт, що інтегрується в єдність (Закон сумарної ймовірності).f(x)dx
Висновок такий
Ентропія - це ентропія плюсY=Xσ+μXlog(σ).
Словом, зміщення випадкової величини не змінює її ентропії (ми можемо вважати ентропію такою, що залежить від значень щільності ймовірності, але не від того, де ці значення трапляються), одночасно масштабуючи змінну (яка для "розтягує" або "змазує" це) збільшує її ентропію на Це підтримує інтуїцію, що дистрибуції з високою ентропією "більше розповсюджені", ніж розподіли з низькою ентропією.σ≥1log(σ).
Як наслідок цього результату, ми можемо вибирати зручні значення та при обчисленні ентропії будь-якого розподілу. Наприклад, ентропію нормального розподілу можна знайти, встановивши іЛогарифм щільності в даному випадку єμσ(μ,σ)μ=0σ=1.
log(f(x))=−12log(2π)−x2/2,
звідки
H=−E[−12log(2π)−X2/2]=12log(2π)+12.
Отже, ентропія нормального розподілу отримується просто додаванням до цього результату, даючи(μ,σ)logσ
H=12log(2π)+12+log(σ)=12log(2πeσ2)
як повідомляє Wikipedia .