Чи є BPP проти P справжньою проблемою після того, як ми знаємо, що BPP лежить у P / poly?


16

Ми знаємо (зараз близько 40 років, дякую Адлеману, Беннету та Гіллу), що включення BPP P / poly та ще сильніший BPP / poly P / poly. "/ Poly" означає, що ми працюємо нерівномірно (окрема схема для кожної вхідної довжини ), тоді як P без цього "/ poly" означає, що ми маємо одну машину Тюрінга на всі можливі довжини вводу , навіть довші, ніж, скажімо, = кількість секунд до наступного "Великого вибуху". nnnn

Питання 1: Що нового може підтвердити (чи спростувати) BPP = P для наших знань після того, як ми знаємо BPP P / poly?

Під "новим" я маю на увазі будь-які насправді дивовижні наслідки, такі як крах / розділення інших класів складності. Порівняйте це з наслідками, які забезпечують доказ / відхилення NP P / poly.

[ДОДАТО 08.10.2017]: Одним з дивовижних наслідків BPP P буде те, що, як показали Імпальязцо та Вігдерсон , усі (!) Проблеми в E = DTIME [2 ^ {O (n)}] мали б схеми розміром 2 ^ {o (n)} . Дякую Райану, що пригадав цей результат. 2 o ( n )[2O(n)]2o(n)

Питання 2: Чому ми не можемо довести BPP = P за аналогічними рядками, як доказ BPP / poly P / poly?

Однією "очевидною" перешкодою є проблема з обмеженою та нескінченною доменом: булеві схеми працюють над кінцевими доменами, тоді як машини Тьюрінга працюють над усім набором {0,1} з 0 - 1 рядками будь-якої довжини. Отже, для дерандонізації ймовірнісних булевих схем достатньо взяти більшість незалежних копій імовірнісного ланцюга та застосувати нерівність Черноффа разом із зв'язаним об'єднанням. Звичайно, для нескінченних доменів це правило простої більшості не буде працювати.

Але чи справді ця (нескінченна область) справжня «перешкода»? Використовуючи результати статистичної теорії навчання (розмірність ВК), ми вже можемо довести, що BPP / poly P / poly справедливий і для схем, що працюють над нескінченними доменами, як арифметичні схеми (працюють над усіма реальними числами); див., наприклад, цей документ Cucker у співавт. Використовуючи подібний підхід, все, що нам знадобиться, - це показати, що розмір ВК багаторазових машин Тьюрінга не може бути занадто великим. Хтось бачив будь-які спроби зробити цей останній крок?


ПРИМІТКА [додано 07.10.2017]: У контексті дерадонізації розмір VC класу F функцій f:XY визначається як максимальне число v для якого є функції f1,,fv у F такі що для кожного S{1,,v} існує точка (x,y)X×Y з fi(x)=y тоді і тільки тоді iS . Тобто ми розбиваємо не множини точок через функції, а скоріше набори функцій через точки. (Два результуючі визначення розмірності ВК пов'язані, але експоненціально.)

Результати (відомі як рівномірне зближення у ймовірності ) означають наступне: якщо для кожного входу випадково вибрана функція (за деяким розподілом ймовірностей на ) задовольняє для постійної , тоді можна обчислити на всіх входах як більшість деякі (фіксований) функції з . Див., Наприклад, слід 2 у статті Хаусслера . [Для цього слід встановити деякі слабкі умови вимірювання на ] FF F Р г про б { е ( х ) = е ( х ) } 1 / 2 + з C > 0 F ( х ) х Х м = O ( v ) F FxXfFFProb{f(x)=f(x)}1/2+cc>0f(x)xXm=O(v)FF

Наприклад, якщо - множина всіх многочленів обчислюється за арифметичними схемами розміром , то всі многочлени у мають ступінь максимум . Використовуючи відомі верхні межі щодо кількості нульових шаблонів поліномів (див., Наприклад, цей документ ), можна показати, що розмір VC є . Це передбачає включення BPP / poly P / poly для арифметичних схем.Ff:RnRsFD=2sFO(nlogD)=O(ns)


3
Щодо Q1: відмовлення показало б напрочуд малі схеми для кожної проблеми, вирішуваної за 2 ^ (O (n)) час, автор Impagliazzo-Wigderson (як ви, напевно, знаєте?)
Ryan Williams

1
Мене бентежить Q2. Здається очевидним, що розмір VC багаточасної ТМ нескінченний. Тобто для будь-якого кінцевого безлічі і будь-якого S X існує поліноміальний по TM , який приймає елементи S і відхиляє елементи X S . Ключовим є те, що X є кінцевим, тому політичне обмеження в основному не має значення. X{0,1}SXSXSX
Сашо Ніколов

1
Що стосується Q2, включення насправді не має великого відношення до класу складності та обчислювальної потужності, я думаю, це стосується кількості випадкових біт проти кількості порад, тому я не думаю, що це дає нам інформацію про природу ефективного обчислення.
Каве

1
@Kaveh: підказка "кількість випадкових біт проти кількості порад" варто задуматися! Але, на мій погляд (мирян), навіть у таких питаннях, як P проти NP, нас насправді не хвилює "явна" конструкція (єдиної) ТМ. Такі питання задають лише питання про існування ефективних алгоритмів. Звичайно, конструкція - це "без сумніву" доказ існування. Але можуть бути і деякі менш прямі докази. Отже, речі зводяться до розширення "існування для кожного " до показу "існування для всіх n ". Тобто до . nn
Стасіс

1
Навіть якщо ви зафіксуєте час роботи, VC-затемнення буде нескінченним. Що ви можете сподіватися - це обмежити VC-дим обмежених ТМ, що працюють на вхідному розмірі n . Але якщо ви подумаєте про аргумент тоді, вам доведеться взяти більшість потенційно різних ТМ для кожного n : неоднорідності. Tnn
Сашо Ніколов

Відповіді:


17

Не впевнений, наскільки це відповідь, я просто балуюся деякими романами.

Питання 1 може бути в рівній мірі питання про P NP і з таким же відповіддю - методи / ідеях , які використовуються для доказу результату буде великий прорив в більшій мірі , ніж сам висновок.

Для питання 2 я хочу поділитися деякою інформацією та думкою. Майже всі методи та ідеї, які ми маємо для BPP = P, наскільки я знаю, проходять через "дерандомізацію": Враховуючи будь-яку ймовірнісну полі-таймінгову машину Тьюрінга, побудуйте PRG, щоб подати їй купу детерміновано вибраних бітів замість випадкових такі, що його поведінка дуже схожа на поведінку на справді випадкових бітах. Таким чином, при досить хороших псевдовипадкових генераторах ми отримуємо BPP = P. ("Світ BPP = P" Голдріха свідчить про те, що будь-який доказ BPP = P повинен прирівнюватися до цього.)

Це в значній мірі по лінії BPP P / poly, за винятком випадків, PRG - це порада, яка виробляється магією. Мабуть, найкраща відповідь на ваше запитання 2 полягає в тому, що в P ми не магічні і самі повинні придумати рядок порад. Дерандомізація - це також ідея, що стоїть за результатом SL = L 2004 року, використовуючи такі інструменти, як графіки розширення.

Тепер розглянемо, що таке доведення означатиме лише для одного конкретного алгоритму, тесту примільності Міллера-Рабіна. Це показало б існування деякого детермінованого генератора, який вибирає послідовність цілих чисел для подачі на тест первинності Міллера-Рабіна таким чином, що якщо і тільки якщо всі цілі числа пройшли, то початкове число було простим.

Наскільки я це розумію (хоча я не експерт), питання про те, чи існує такий список і наскільки малі його числа можуть бути (зокрема, якщо достатньо перевірити всі числа нижче деяких обмежених), виглядає досить глибоким питанням у теорія чисел і тісно пов'язана з доведенням форм узагальненої гіпотези Рімана. Дивіться це питання . Я не думаю, що тут є формальне значення, але це не схоже на те, що ми очікуємо отримати на наступному тижні як випадкове мініатюрне наслідок набагато більш загальної конструкції PRG.


Цікаві думки! У статті Одеда випливає, що Q2 дійсно зводиться до "існування проти побудови" PRG. При дерандомізації через розмір ВК алгоритмічні аспекти повністю ігноруються.
Стасіс

2
Дякую всім (Kaveh, Ricky, Ryan, Sasho та "usul"): Я багато чого дізнався з ваших коментарів. "Уніфікованість" ніколи не була проблемою в моєму житті, звідси і жадібність моїх питань. Я приймаю відповідь "usul". Доповнений дуже цікавими зауваженнями Каве, Рікі, Райана та Сашо, це дає відповіді на мої обидва питання.
Стасіс
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.