Відгадування низького значення ентропії в декількох спробах


9

Припустимо, Аліса має розподіл μ над обмеженим (але можливо дуже великим) доменом, таким, що (ентропія) Шеннона μ є верхньою межею довільно малою постійною ε. Аліса малює значенняx з μ, а потім запитує у Боба (хто знає μ) вгадати x.

Яка ймовірність успіху для Боба? Якщо йому дозволена лише одна здогадка, то можна знизити цю ймовірність так: верхній ентропія обмежує міні-ентропію, тому існує елемент, який має ймовірність щонайменше2ε. Якщо Боб обере цей елемент як свою здогадку, його ймовірність буде успішною2ε.

А тепер припустимо, що Бобі дозволяється робити кілька здогадок, скажімо tздогадується, і Боб виграє, якщо одне з його здогадок правильне. Чи існує схема здогадок, яка покращує ймовірність успіху Боба? Зокрема, чи можна показати, що ймовірність відмови Боба зменшується експоненціальноt?

Відповіді:


10

Найкраще, щоб Боб здогадався t значення з найбільшою ймовірністю.

Якщо ви готові використовувати замість ентропії Рені, пропозиція 17 у "Ентропіях, здогадах та криптографії " Бозташа стверджує, що ймовірність помилок післяt здогадки - це не більше

12H2(μ)(1logtlogn)ln2(1logtlogn)H2(μ),
де n- розмір домену. Звичайно, залежність відt досить погано, і, можливо, Бозташ був зосереджений на іншому режимі ентропії.

Для ентропії Шеннона можна спробувати вирішити задачу подвійної оптимізації: з урахуванням фіксованої ймовірності відмови δ, знайдіть максимальну ентропію такого розподілу. Використання опуклостіxlogx, ми знаємо, що розподіл μ має форму a,b,,b;b,,b,c, де abc, a+(t1)b=1δ, і c=δδbb. Ми маємоt1+δb значення, які отримують ймовірність b. Кондиціонування наs=δb, ми можемо спробувати знайти bщо мінімізує ентропію. Для правильного значенняs, це буде внутрішньою точкою (при якій похідна зникає). Я не впевнений, як отримати асимптотичні оцінки за допомогою цього підходу.


Дякую за відповідь! Я спробував оптимізаційний підхід, який ви пропонуєте, але не зміг отримати хороших оцінок.
Або Меїр

Привіт Ювал, після ще однієї роботи здається, що такий підхід до оптимізації дає рішення. На жаль, і в цьому випадку помилка зменшується лише обернено-логарифмічно в кількості здогадок. Дякую!
Або Меїр

7

На жаль, немає гарної відповіді на ваше запитання. Джон Плім [кандидатська дисертація, 2 статті з серії LNCS] першим помітив невідповідність між ентропією Шеннона та очікуваною кількістю здогадок. Його тезу легко знайти в Інтернеті. У розділі 4.3, вибравши відповідний розподіл ймовірностей дляX (залежно від довільного натурального числа N) що походить із самоподібних дерев хафмана, він демонструє, що, здогадуючись у порядку зменшення ймовірності, треба зробити більше, ніж N+H(X) здогадки до досягнення ймовірності успіху 1/2.

Це є причиною того, що люди продовжували вивчати ентропії Рені.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.