Чи може значення коефіцієнта взаємної інформації бути більше 1


11

У мене дуже базові сумніви. Вибачте, якщо це мало кого дратує. Я знаю, що значення Взаємної Інформації повинно бути більше 0, але чи повинно бути менше 1? Чи обмежує це якесь верхнє значення?

Спасибі, Аміт.

Відповіді:


18

Так, вона має верхню межу, але не 1.

Взаємної інформації (в бітах) є 1 , коли дві сторони (статистично) частка один біт інформації. Однак вони можуть ділитися довільно великими даними. Зокрема, якщо вони ділять 2 біти, то це 2.

Взаємна інформація обмежена зверху ентропією Шеннона щодо розподілу ймовірностей для окремих сторін, тобто .I(X,Y)min[H(X),H(Y)]


Якщо дві сторони є бінарними змінними, тобто кожна має лише два можливі результати {0,1} , то ентропії max виходять при коли і . Таким чином, максимальна взаємна інформація для двох двійкових змінних -X,YH(X),H(Y)1P(X)=0.5P(Y)=0.51
Акселі Пален
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.