Яке найшвидше відоме моделювання BPP за допомогою алгоритмів Лас-Вегаса?


10

BPP іZPP - два основні класи ймовірнісної складності.

BPP - клас мов, який визначається ймовірнісними поліноміально-часовими алгоритмами Тюрінга, де вірогідність алгоритму повернення неправильної відповіді обмежена, тобто ймовірність помилки становить щонайбільше13 (як для випадків ТА, так і НІ).

З іншого боку, алгоритми ZPP можна розглядати як ті ймовірнісні алгоритми, які ніколи не повертають неправильну відповідь, коли вони повертають відповідь, вона є правильною. Однак час їх роботи не обмежений поліномом, вони працюють в очікуваному многочлені.

Нехай ZPTime(f) - клас мови, визначений імовірнісними алгоритмами з нульовою ймовірністю помилок і очікуваним часом виконання f . Вони також називаються алгоритмами Лас-Вегаса і ZPP=ZPTime(nO(1)) .

Моє запитання - що найкраще знати моделювання алгоритмів BPP за допомогою алгоритмів Лас-Вегаса? Чи можемо ми імітувати їх у субекспоненціальний очікуваний час? Чи є якесь відоме вдосконалення в порівнянні з тривіальним імітацією грубої сили, яке потребує експоненціального часу?

Більш формально, чи ми знаємо, чи BPPZPTime(2O(nϵ)) або BPPZPTime(2nnϵ) для деякого ϵ>0 ?


3
Що таке n, довжина вводу? Чому ми можемо прийняти за ? 2n
domotorp

1
- те саме, що 2 p o l y ( n ) . 2poly(n)nϵ2poly(n)
Emil Jeřábek

2
Я вважаю це питання досить цікавим. Я відредагував питання, щоб зробити його більш зрозумілим і точним. Не соромтесь редагувати подальші зміни. ps: Я здогадуюсь, що ви, ймовірно, хотіли врахувати поліноміально багато випадкових бітів, які використовуються алгоритмом BPP як параметр часу моделювання, але, як Еміль вказує, те, що ви написали, дає . Якщо ви хочете, що вам доведеться замінити BPP на певний клас обмежених помилок імовірнісних алгоритмів, у яких є параметр для кількості випадкових бітів, використовуваних алгоритмом. 2poly(n)
Kaveh

Ви можете запитати, чи можемо ми імітувати алгоритм BPP, який використовує випадкові біти у Z P T i m e ( 2 r ( n ) - n ϵ n O ( 1 ) ), оскільки симуляція грубої сили працює у 2 r ( n ) n O ( 1 ) час. r(n)ZPTime(2r(n)nϵnO(1))2r(n)nO(1)
Kaveh

Відповіді:


13

По- перше, зауважимо , що якщо для деякої константи С , то Б Р РН Е Х Р . (Доведення недетермінованою ієрархією часу.) Таким чином, доведення такого включення було б суттєвим не лише тому, що це вдосконалене моделювання, але й дало б перший прогрес у рандомізованих нижчих межах за десятиліття.BPPZPTIME[2nc]cBPPNEXP

Далі розглянемо клас PromiseBPP , для якого наступна проблема - " -hard":PromiseBPP

Схема апроксимації ймовірності Завдання (CAPP): Беручи під увагу схему , вихід прийняття ймовірність C з точністю до 1 / 6 адитивного фактора.CC1/6

Результати Impagliazzo, Kabanets, Wigderson 2002 випливають, що алгоритм нульової помилки для CAPP (де n - розмір C ) означатиме N E X PP / p o l y . У STOC'10 я розширив це, щоб показати: припускаючи, що для кожного із вхідними бітами k та n розміром, можна обчислити CAPP недетерміновано (так, нульових помилок вистачає) у 2 k - ω ( log k ) p o l y2nεnCNEXPP/polyCkn. Тобто, безумовно, існують проблеми, що обчислюються з випадковими двосторонніми помилками, для яких алгоритми з нульовою помилкою, які навіть м'яко перемагають вичерпний пошук, означатимуть нижню межу ланцюга. Я вважаю, що це слід тлумачити як можливий метод доведення нижчих меж; ваш пробіг може змінюватися. час, то N E X PP / p o l y2kω(logk)poly(n)NEXPP/poly

Зауважте, що навіть доведення також є відкритим, і доводить, що це означатиме також нижчі межі: від Kabanets та Impagliazzo 2004, якщо тестування поліноміальної ідентичності (a c o R P задача) є в Z P T I M E [ 2 n ε ] для всіх ε > 0 , тоді ми маємо нижні межі або для постійних, або для N E X PRPZPTIME[2nε]coRPZPTIME[2nε]ε>0NEXP. Нещодавно (майбутнє в STOC'13) я беззастережно довів, що або або R T I M E [ 2 n ] має n c розмірних схем, спираючись на метод «простого свідка» Кабанця. Це означає дві речі:BPPioZPTIME[2nε]/nεRTIME[2n]nc

  1. Існує таке, що для всіх ε > 0 , R P безумовно в i o Z P T I M E [ 2 n ε ] / n c - мова йде про найкращу безумовну дерандомізацію R P / B P P в Z P P, про яку ми знаємо поки що.cε>0RPioZPTIME[2nε]/ncRP/BPPZPP

  2. Щоб почати отримувати цікаві субекспоненціальні симуляції , ви "тільки" повинні припустити, що R T I M E [ 2 n ] не має схем фіксованого полінома.BPPRTIME[2n]


Дякую Ніллу, що знайшов час зробити свою відповідь розбірливою :)
Райан Вільямс

2
Райан, я думаю , що я збираюся поставити дуже дурне питання, але тут я йду: в першому реченні, навіщо вам це потрібно «для всіх »? Чи не є підмножина BPP ZPTIME (2 ^ (n ^ c)) для деякого c фіксованим, означає підмножину BPP RTIME (2 ^ (n ^ c)) і, отже, NTIME (2 ^ (n ^ c)), тому BPP є не дорівнює NEXP або інакше NTIME (2 ^ (2n ^ c)) є підмножиною NTIME (2 ^ (n ^ c))? ϵ
Сашо Ніколов

1
Зовсім не дурно - дійсно, для деякого c достатньо B P P N E X P , дякую, що вказав на це. Але для інших наслідків необхідні алгоритми субекспоненціального часу. BPPNTIME(2nc)cBPPNEXP
Райан Вільямс

Райан: Якщо я хотів розібратися у вашому документі, яку книгу / документи про складність схеми ви рекомендуєте ознайомити?
Т ....,

Привіт Арул, на щастя, Білл Гасарх задав мені це питання ще раз, і розмістив таку веб-сторінку посилань: cs.umd.edu/~gasarch/ryan/ryan.html
Ryan Williams

8

Це залежить від того, які припущення ви готові зробити.

При певних припущеннях твердості, а саме , то отримаємо , що Р = В Р Р . Це, зокрема, означає, що B P P = Z P P , а отже, кожна мова L B P PESIZE(2εn)P=BPPBPP=ZPPLBPP приймається машиною в Лас-Вегасі (див. "P = BPP, якщо E не має субекспоненціальних схем: дерадомізація лемми XOR", автор Impagliazzo і Вігдерсон).

Ви також можете зробити припущення про більш м'яку твердість, а саме, що , і отримати це (див. Лему 46 в „У пошуках легкого свідка: Експонентальний час проти ймовірнісного полінома "від Імпальязцо, Кабанця та Вігдерсона).ZPEioDTIME(2εn)BPP=ZPP


4

Якщо заборонити будь-який прогрес в дерандомізації, мені здається, що вимога про те, що Лас-Вегас не допускає помилок, є вирішальною, так що випадковість випадкових випадків у цьому випадку є мало користі.

LAx{0,1}nr{0,1}N(n) AAA(r)=A(x,r)Aa{0,1}1-a

Prr(A accepts (x,r))23orPrr(A accepts (x,r))13
AA обчисленняA(r)=A(x,r), і, враховуючи обіцянку, що дає один вихід принаймні вдвічі більше входів, ніж протилежний вихід , визначте, який вихід є більш поширеним.Aa{0,1}1a

Хоча машина в Лас-Вегасі може використовувати випадкові прийоми, якщо нас справді змусити трактувати як оракул, ми можемо побачити, що єдиною стратегією, доступною для машини в Лас-Вегасі, є проведення відносно ретельного (хоча і не вичерпного) обстеження випадкові рядки , щоб побачити, яку відповідь дано для кожного. Він може бути впевнений лише в тому випадку, якщо він знайде більше різних рядків які всі дають однаковий вихід; в іншому випадку з невеликою (але не нульовою!) ймовірністю може бути невдалим і отримати нерепрезентативну вибірку можливих результатів. Щоб отримати нульову помилку, вона повинна взяти вибірку принаймні на входи . r 2 N ( n )Arr 2 N ( n )2N(n)/3rр2N(n)/3r

Оскільки машина Лас-Вегаса повинна перевірити принаймні постійну частку всіх можливих випадкових рядків , асимптотично нам не краще, ніж якби ми детерміновано протестували всі можливі випадкові рядки. Ми не отримуємо асимптотичної переваги в моделюванні алгоритмів BPP випадковим чином у нульовій помилці, крім того, що ми можемо робити детерміновано грубою силою.r

Зауважте, що цей самий аргумент спричиняє поділ оракул між BPP та ZPP , тобто  є оракул такий, що оскільки алгоритм ZPP займає експоненційний час, а Алгоритм BPP може вирішити питання про oracle за один запит і досягти успіху з обмеженою помилкою. Однак це не говорить вам більше ніж те, про що ви вже підозрювали (що моделювання накладних витрат може бути гіршим, ніж поліном), ні про те, що асимптотика так само погана, як і наївне детерміноване моделювання.Z P P AB P P AA

ZPPABPPA

виправте мене, якщо я помиляюся: ви даєте кілька інтуїтивних міркувань, чому дерандомізація здається неможливою, але ми знаємо, що за деякими розумними припущеннями BPP, ZPP і P - все те саме. так що інтуїція не обов'язково корисна
Сашо Ніколов

1
Зовсім ні. Derandomization, імовірно , буде розуміння того , як моделювати BPP на P , чи не так? Я просто описую, як, якщо він хоче беззастережних результатів, які не експлуатують структуру самого алгоритму, він може також виконати детерміновану імітацію як рандомізовану нульову помилку. Або щось не так у цьому поясненні?
Niel de Beaudrap

1
Я думаю, що все, що ви говорите, - це те, що моделювання наївної грубої сили BPP за допомогою ZPP не набагато швидше, ніж симпатія наївної грубої сили BPP від ​​P., але я не можу побачити, що це повинно показати. для мене це як би хтось запитував "який найшвидший алгоритм пошуку максимальної відповідності" та отримання відповіді "добре, якщо не вдалося зрозуміти структуру відповідностей, це час експоненції". питання полягає в тому, чи існує якась відома думка про структуру БПП, яка робить можливим ефективне моделювання ZPP
Сашо Ніколов

1
@SashoNikolov: Насправді це не було глибоким розумінням. З формулювання цього питання, мені здалося, є кордоном для переходу на CS.SE. Я вирішив відповісти на це буквально, начебто: наскільки ми знаємо , найефективніший очікуваний час роботи машини Лас-Вегас, яка приймає мову L∈BPP, не набагато кращий за детерміновану машину, яка досліджує можливості грубої сили. Відповіді, які говорять про те, що це може бути деяка поліноміальна верхня межа, якщо деякі умови є чудовими та інформативними, і я проголосую за це; але я вирішую власне питання.
Niel de Beaudrap

1
Я думаю, що це приємна відповідь (також легше читати зараз після редагування). У нас немає умовного результату на кшталт "P = ZPP означає P = BPP" або "ZPP = BPP означає P = BPP", тому все ще можливо, що ми зможемо моделювати BPP алгоритмами ZP швидше, ніж за допомогою детермінованих алгоритмів. Однак результат релятивізації, мабуть, означає, що це не може відбутися жодним релятивізуючим моделюванням, я правильно розумію?
Kaveh
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.