Корисність ентропій Renyi?


14

Більшість з нас знайомі - або принаймні чули про - ентропію Шеннона випадкової величини, H(X)=E[logp(X)] , і всі відповідні інформаційно-теоретичні заходи, такі як відносна ентропія, взаємна інформація тощо. Існує кілька інших заходів ентропії, які зазвичай використовуються в теоретичній інформатиці та теорії інформації, такі як міні-ентропія випадкової величини.

Я почав частіше бачити ці так звані ентропії Рені, коли переглядаю літературу. Вони узагальнюють ентропію Шеннона та мін-ентропію і фактично забезпечують цілий спектр ентропічних заходів випадкової величини. Я працюю здебільшого у сфері квантової інформації, де також досить часто розглядається квантова версія ентропії Рені.

Що я насправді не розумію, це те, чому вони корисні. Я чув, що часто з ними простіше працювати з аналітикою, ніж говорити про ентропію Шеннона / фон Неймана або міні-ентропію. Але вони також можуть бути пов'язані також з ентропією / міні-ентропією Шеннона.

Чи може хтось навести приклади (класичні чи квантові), коли використання ентропій Рені - це "правильна річ"? Що я шукаю, це якийсь "ментальний гачок" або "шаблон" для того, щоб знати, коли я можу захотіти використовувати ентропії Рені.

Спасибі!


Додаток до моєї відповіді: Схоже, існує ймовірнісне визначення ентропії q-Renyi ( ) i, e H q ( { p i } n i = 1 ) = 1qZ+. Тодіlimq1Hq=-pkln(pk),і цей RHS називається `` ентропія Шеннона '', а також визначається інша межа, тобтоH(X)=ln[1Hq({pi}i=1n)=11qln[k=1npkq]limq1Hq=pkln(pk). Ці ідеї, схоже, знайшли застосування в побудові розширювачів, як це бачимо тут, math.rutgers.edu/~sk1233/courses/topics-S13, math.ias.edu/~avi/PUBLICATIONS/MYPAPERS/CRVW01/crvw01.pdf, arxiv. org / pdf / math / 0406038.pdfH(X)=ln[1maxaPr[X=a]]
Anirbit

Відповіді:


15

Розглянемо намагається зробити атомні припущення з невідомої випадкової величини , розподіленої по деякому кінцевому безлічі A . У ентропії Шеннона передбачається, що ви можете запитувати побіжно, тобто якщо A = { 1 , ... , N }, ви можете запитати:XA.A={1,,N}

Чи ? X{1,,N/2}(припустимо, рівне або використовувати функції підлоги / стелі)N

У криптовалютах та деяких сценаріях декодування це не реально. Намагаючись відгадати невідомий пароль, вам потрібно зробити атомні запити, тобто запитати, чи є конкретним значенням.X

Виявляється, очікувана кількість запитів для відгадування випадкової величини тоді сильно залежить від ентропії Ренея порядку 1 / 2. Тож зробимо кілька вищих моментів. НаприкладX1/2.

E[G](xAPX(x)1/2)22

і чисельник, по суті, є логарифмом ентропії Рені порядку Можна також зробити ентропію Шеннона дуже великою, тоді як ентропія Рені і очікування кількості здогадок дуже мало. Якщо ви для безпеки покладалися на ентропію Шеннона, то у цьому випадку ви будете мати проблеми.1/2.

Будь ласка, дивіться також пов'язане питання Відгадайте низьке значення ентропії у кількох спробах

Деякі посилання:

  1. Дж. П. Парлем, Про невідповідність ентропії та граничних здогадів у нападах грубої сили. ІНДОКРИПТ 2000: 67-79
  2. Е. Арікан, Нерівність у здогадуванні та його застосування до послідовного розшифровки. Операції IEEE з інформаційної теорії 42 (1): 99-105,1996.
  3. С. Бозтас, Про ентропії Рені та їх застосування для відгадування атак у криптографії, IEICE транзакції з основ електроніки, зв’язку та комп'ютерних наук 97 (12): 2542-2548, 2014.

Я не можу отримати доступ до цієї статті S.Boztas. У вас є загальнодоступне посилання?
Анірбіт

@Anirbit див. Сховище досліджень RMIT, researchbank.rmit.edu.au
kodlu

Я шукав це посилання. Це взяло мене лише по колах. Я ніколи не знаходив публічно доступний pdf-файл!
Анірбіт

@Anirbit, вибач, я думав, що це справді депоновано там!
kodlu

18

Ентропія Рені в деякому сенсі аналогічна -нормам, тому спочатку згадаймо, чому ці норми корисні.p

Припустимо, у нас є вектор чисел . Ми хочемо мати одне число , яке представляє, в якому - то сенсі, як робить типовий елемент в виглядати.aRna

Один із способів зробити це - взяти середнє число чисел у , яке приблизно відповідає нормі 1 : E 1 i n [ | a i | ] . Це часто корисно, але для деяких застосувань у нього є такі проблеми: По-перше, норма 1 не дає нам гарної верхньої межі найбільшому елементу a , тому що якщо є один великий елемент і багато нулів, 1 норма буде значно меншою, ніж найбільший елемент. З іншого боку, 1a1E1in[|ai|]1a11норма також не дає нам хорошу оцінку на як малі елементи , наприклад, скільки нулів має - ця проблема виникає точно за таким же сценарієм , як і раніше.aa

Звичайно, коли елементи багато дисперсії, наприклад, в крайньому випадку , як зазначено вище, жоден номер не може дати вирішити обидві проблеми вище. У нас є компроміс. Наприклад, якщо ми хочемо знати лише найбільший елемент, ми можемо використовувати норму , але тоді ми втратимо всю інформацію про більш дрібні елементи. Якщо ми хочемо кількість нулів, ми можемо подивитися на норму 0 , яка є лише розміром опори a .a0a

Тепер причина розгляду норм полягає в тому, що вони дають нам весь безперервний компроміс між двома крайнощами. Якщо ми хочемо отримати більше інформації про великі елементи, ми вважаємо, що p буде більшим, і навпаки.pp

Те саме стосується і ентропій Рені: Ентропія Шенона подібна до норми - це щось говорить про "типову" ймовірність елемента, але нічого не стосується дисперсії чи крайнощів. Міні-ентропія дає нам інформацію про елемент з найбільшою ймовірністю, але втрачає всю інформацію про решту. Розмір опори надає іншої крайності. Ентропії Рені дають нам безперервний компроміс між двома крайнощами.1

Наприклад, багато разів ентропія Renyi-2 є корисною, оскільки вона, з одного боку, близька до ентропії Шенона, і, таким чином, містить інформацію про всі елементи розподілу, а з іншого боку дає більше інформації про елементи з найбільшою ймовірність. Зокрема, відомо, що межі ентропії Renyi-2 задають межі на min-ентропії, див., Наприклад, Додаток A тут: http://people.seas.harvard.edu/~salil/research/conductors-prelim .ps


11

Ентропія Рені (порядку 2) корисна в криптографії для аналізу ймовірності зіткнень.

Нагадаємо, що ентропія Ренея порядку 2 випадкової величини задана черезX

H2(X)=log2xPr[X=x]2.

Виявляється, що дозволяє нам виміряти ймовірність того, що два значення, намальовані в iD відповідно до розподілу X , будуть однаковими ("зіткненнями"): ця ймовірність рівно 2 - H 2 ( X ) . Після виведення n разів з цього розподілу очікувана кількість зіткнень між цими n нічиями становить C ( n , 2 ) 2 - H 2 ( X ) .H2(X)X2H2(X)nnC(n,2)2H2(X)

Ці факти корисні в криптографії, де зіткнення іноді можуть бути проблематичними та спричиняти напади.

Для аналізу інших застосувань у криптографії я рекомендую наступну докторську дисертацію:

Крістіан Качін. Ентропійні заходи та безумовна безпека в криптографії . Кандидатська дисертація, ETH Цюріх, травень 1997.


Чи існує таке пряме ймовірнісне визначення будь-якої ентропії q-Рені? (як ви бачите з моєї відповіді, єдиний спосіб, коли я знаю, як це визначити у довільному q, це через визначення функцій розділення, що відповідають фізичній системі, яка була визначена через її лагранжева або гамільтоніана або її дію)
Анірбіт

@Anirbit, я не знаю. Я не пам'ятаю жодного бачення (хоча можливо, що ентропія q-Renyi може призвести до інших меж, про які ми піклуємося ...)
DW

Крім того, схоже, що "інформаційна ентропія", по суті, є "термодинамічною ентропією". Отже, навіть при ентропії (q = 1) -Рені, тобто ентропії заплутаності, існує концептуальний розрив щодо інтерпретації її складності?
Анірбіт


@DW Здається, існує ймовірнісна інтерпретація. Чи бачите мій коментар до оригінального питання.
Анірбіт

3

Ця інша відповідь на stackexchange і ця публікація в блозі може бути дуже корисною для швидкого відчуття основного прикладу,

Грубо кажучи, ентропії Рені знають про збуджені стани квантової системи, але ентропія заплутування знає про основні стани. ПОПЕРЕДЖЕННЯ: Ця інтуїція може бути дуже жорстокою, але може бути просто хорошим "розумовим гаком": DI був би ДУЖЕ радий дізнатися про кращий і точніший спосіб сказати це!

Можна подумати про обчислення ентропії заплутаності S1 (що є більш фізичною величиною) як єдиний межа обчислення ентропій Ренея (Sq для кожного qZ+). Але це межаS1=лiмiтq1Sqстрашенно погано визначено. Тому часто виникає думка, що можна розрахуватиSq при довільному цілому значенні, а потім зробіть аналітичне продовження цього до qR and then try to define taking of the q1 limit. (though always qR, this I call "analytic" continuation because often enough one needs to do the interpolation via contours in the complex plane - and the continuation can depend on what contours one chooses through the poles and branch-cuts of the Sq that one started with)

At integral values of q>1 typically there is a always a very well-defined construction in terms of some integration of some function on some qbranched manifold. After one has done such an integration one happily forgets about the manifold used and just tries to do the analytic continuation parametrically in the variable q.

There are always a lot of issues about existence and well-posedness when one tries to do these anayltic continuations - but for someone like me who is brought up on a daily diet of Feynman path-integrals its a very common issue to deal with and we have a lot of tools to address these. Three nice papers to look into for these issues are, http://arxiv.org/pdf/1306.5242.pdf, http://arxiv.org/pdf/1402.5396.pdf, http://arxiv.org/pdf/1303.7221.pdf (the last of these papers might be an easier starting point) This presentation might also help, https://www.icts.res.in/media/uploads/Talk/Document/Tadashi_Takayanagi.pdf

What Renyi entropy says in terms of quantum complexity theory might be an exciting question! Can one think of the Renyi index as somehow parameterizing a hierarchy of complexity classes? That should be fun if true! Do let me know :)


Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.