Нещодавно я прочитав цю статтю про ентропію дискретного розподілу ймовірностей. Він описує приємний спосіб мислення про ентропію як очікувану кількість бітів (принаймні, при використанні у вашому визначенні ентропії), необхідного для кодування повідомлення, коли ваше кодування є оптимальним, враховуючи розподіл ймовірності вживаних вами слів.
Однак, поширюючись на безперервний випадок, як тут, я вважаю, що такий спосіб мислення руйнується, оскільки для будь-якого безперервного розподілу ймовірностей p ( x ) (будь ласка, виправте мене, якщо це неправильно), тому я був цікаво, чи існує приємний спосіб думати про те, що означає безперервна ентропія, як і у випадку з дискретним випадком.