Ентропія повідомляє, скільки невизначеностей у системі. Скажімо, ви шукаєте кота, і ви знаєте, що він знаходиться десь між вашим будинком та сусідами, що за 1 милю. Ваші діти говорять вам, що вірогідність того, що кішка перебуває на відстані від вашого будинку, найкраще описується шляхом бета-розподілу . Таким чином, кішка може бути десь від 0 до 1, але більше шансів бути посередині, тобто .x f(x;2,2)xmax=1/2
Давайте підключіть бета-розподіл до вашого рівняння, тоді ви отримаєте .H=−0.125
Далі ви запитуєте свою дружину, і вона каже вам, що найкращий розподіл для опису її знань про вашу кішку - це рівномірний розподіл. Якщо ви підключите його до рівняння ентропії, ви отримаєте .H=0
Як рівномірний, так і бета-розподіл дозволяють кішці знаходитися де-небудь від 0 до 1 милі від вашого будинку, але в уніформі є більше невизначеності, оскільки ваша дружина насправді не має уявлення, де ховається кішка, а діти мають якусь ідею , вони думають, що це більше швидше за все, десь посередині. Тому ентропія Бета нижча, ніж уніформа.
Ви можете спробувати інші дистрибуції, можливо, ваш сусід каже вам, що кіт любить бути поруч із будь-яким із будинків, тому його бета-розподіл з . Її повинен бути знову нижчим, ніж у мундиру, тому що ви отримуєте деяке уявлення про те, де шукати кота. Здогадайтесь, чи інформація ентропії вашого сусіда вище чи нижче, ніж у дітей? Я б колись робив ставку на дітей на ці питання.α=β=1/2H
ОНОВЛЕННЯ:
Як це працює? Один із способів думати про це - почати з рівномірного розподілу. Якщо ви згодні, що це найбільше невизначеність, тоді подумайте, як це порушити. Давайте розглянемо дискретний випадок простоти. Візьміть від однієї точки і додайте її до іншої так:
Δp
p′i=p−Δp
p′j=p+Δp
Тепер давайте подивимося, як змінюється ентропія:
Це означає, що будь-яке порушення від рівномірного розподілу зменшує ентропію (невизначеність). Щоб показати те саме в безперервному випадку, мені доведеться використовувати числення варіацій або щось подібне, але ви отримаєте такий же результат, як правило.
H−H′=pilnpi−piln(pi−Δp)+pjlnpj−pjln(pj+Δp)
=plnp−pln[p(1−Δp/p)]+plnp−pln[p(1+Δp/p)]
=−ln(1−Δp/p)−ln(1+Δp/p)>0
ОНОВЛЕННЯ 2: Середнє значення рівномірних випадкових змінних є самою випадковою змінною, і це від розподілу Bates . З CLT ми знаємо, що дисперсія цієї нової випадкової змінної зменшується як . Отже, невизначеність його розташування повинна зменшуватися зі збільшенням : ми все більше і більше впевнені, що кішка посередині. Мій наступний графік та код MATLAB показує, як ентропія зменшується з 0 для (рівномірний розподіл) до . Тут я використовую бібліотеку distributions31 .nn→∞nn=1n=13
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'