Ентропія - це ознака випадкової величини . Даний файл має нульову ентропію, оскільки він є постійним. Ентропія має сенс у багатьох ситуаціях, коли немає каналу, і ви можете застосувати її до випадкового ансамблю, скажімо, WAV-файлів, згенерованих із заданого джерела. У цьому випадку ваш - це весь файл WAV.x
Фактичний файл WAV (за винятком заголовка) можна вважати генерованим якимсь марківським джерелом. Це джерело видає амплітуди звуків ("зразки") у послідовності, кожна залежно від тих, що передують йому. Після дуже тривалого запуску процесу ентропія кожного зразка (точніше, умовна ентропія з урахуванням попередніх зразків) стає дуже близькою до деякого граничного значення, яке ми визначаємо як ентропія джерела. Ентропія вибірок в разів перевищує цю кількість (в межах; знову ж таки, точніше, ми вимірюємо умовну ентропію). Лемпель і Зів показали, що якщо ентропія вибірки є бітами, то їх алгоритм стискає зразків доNNHNHN+o(N)біт, з високою ймовірністю (ймовірність перевищує вибірки). Стиснення Lempel – Ziv є досить популярним у практиці, наприклад, у популярному gzip
форматі.
Завдяки цьому результату Лемпеля та Жива ентропію джерела можна наблизити, стиснувши довгу послідовність зразків, використовуючи алгоритм Лемпель-Зів. Це не оцінює ентропію конкретних вибірок, що не є чітко визначеною концепцією (константна послідовність має нульову ентропію), а швидше ентропією джерела, що її генерує.
Пов'язане поняття - алгоритмічна ентропія , також відома як складність Колмогорова . Це довжина найкоротшої програми, що генерує ваш файл. Ця кількість має сенс для окремого файлу. У випадку файлу, генерованого випадковим джерелом, теорема Лемпеля – Зіва показує, що алгоритмічна ентропія файлу з великою ймовірністю обмежена ентропією Шеннона. На жаль, алгоритмічна ентропія не піддається обчисленню, тому це скоріше теоретична концепція.
Для завершення картини я пропоную прочитати статтю Шеннона про передбачення та ентропію друкованої англійської мови для іншого підходу до оцінки ентропії джерела.