Більшість з нас знайомі - або принаймні чули про - ентропію Шеннона випадкової величини, , і всі відповідні інформаційно-теоретичні заходи, такі як відносна ентропія, взаємна інформація тощо. Існує кілька інших заходів ентропії, які зазвичай використовуються в теоретичній інформатиці та теорії інформації, такі як міні-ентропія випадкової величини.
Я почав частіше бачити ці так звані ентропії Рені, коли переглядаю літературу. Вони узагальнюють ентропію Шеннона та мін-ентропію і фактично забезпечують цілий спектр ентропічних заходів випадкової величини. Я працюю здебільшого у сфері квантової інформації, де також досить часто розглядається квантова версія ентропії Рені.
Що я насправді не розумію, це те, чому вони корисні. Я чув, що часто з ними простіше працювати з аналітикою, ніж говорити про ентропію Шеннона / фон Неймана або міні-ентропію. Але вони також можуть бути пов'язані також з ентропією / міні-ентропією Шеннона.
Чи може хтось навести приклади (класичні чи квантові), коли використання ентропій Рені - це "правильна річ"? Що я шукаю, це якийсь "ментальний гачок" або "шаблон" для того, щоб знати, коли я можу захотіти використовувати ентропії Рені.
Спасибі!