Ми знаємо (зараз близько 40 років, дякую Адлеману, Беннету та Гіллу), що включення BPP P / poly та ще сильніший BPP / poly P / poly. "/ Poly" означає, що ми працюємо нерівномірно (окрема схема для кожної вхідної довжини ), тоді як P без цього "/ poly" означає, що ми маємо одну машину Тюрінга на всі можливі довжини вводу , навіть довші, ніж, скажімо, = кількість секунд до наступного "Великого вибуху". n
Питання 1: Що нового може підтвердити (чи спростувати) BPP = P для наших знань після того, як ми знаємо BPP P / poly?
Під "новим" я маю на увазі будь-які насправді дивовижні наслідки, такі як крах / розділення інших класів складності. Порівняйте це з наслідками, які забезпечують доказ / відхилення NP P / poly.
[ДОДАТО 08.10.2017]: Одним з дивовижних наслідків BPP P буде те, що, як показали Імпальязцо та Вігдерсон , усі (!) Проблеми в E = DTIME [2 ^ {O (n)}] мали б схеми розміром 2 ^ {o (n)} . Дякую Райану, що пригадав цей результат. 2 o ( n )
Питання 2: Чому ми не можемо довести BPP = P за аналогічними рядками, як доказ BPP / poly P / poly?
Однією "очевидною" перешкодою є проблема з обмеженою та нескінченною доменом: булеві схеми працюють над кінцевими доменами, тоді як машини Тьюрінга працюють над усім набором з - рядками будь-якої довжини. Отже, для дерандонізації ймовірнісних булевих схем достатньо взяти більшість незалежних копій імовірнісного ланцюга та застосувати нерівність Черноффа разом із зв'язаним об'єднанням. Звичайно, для нескінченних доменів це правило простої більшості не буде працювати.
Але чи справді ця (нескінченна область) справжня «перешкода»? Використовуючи результати статистичної теорії навчання (розмірність ВК), ми вже можемо довести, що BPP / poly P / poly справедливий і для схем, що працюють над нескінченними доменами, як арифметичні схеми (працюють над усіма реальними числами); див., наприклад, цей документ Cucker у співавт. Використовуючи подібний підхід, все, що нам знадобиться, - це показати, що розмір ВК багаторазових машин Тьюрінга не може бути занадто великим. Хтось бачив будь-які спроби зробити цей останній крок?
ПРИМІТКА [додано 07.10.2017]: У контексті дерадонізації розмір VC класу функцій визначається як максимальне число для якого є функції у такі що для кожного існує точка з тоді і тільки тоді . Тобто ми розбиваємо не множини точок через функції, а скоріше набори функцій через точки. (Два результуючі визначення розмірності ВК пов'язані, але експоненціально.)
Результати (відомі як рівномірне зближення у ймовірності ) означають наступне: якщо для кожного входу випадково вибрана функція (за деяким розподілом ймовірностей на ) задовольняє для постійної , тоді можна обчислити на всіх входах як більшість деякі (фіксований) функції з . Див., Наприклад, слід 2 у статті Хаусслера . [Для цього слід встановити деякі слабкі умови вимірювання на ] F ∈ F F Р г про б { е ( х ) = е ( х ) } ≥ 1 / 2 + з C > 0 F ( х ) х ∈ Х м = O ( v ) F F
Наприклад, якщо - множина всіх многочленів обчислюється за арифметичними схемами розміром , то всі многочлени у мають ступінь максимум . Використовуючи відомі верхні межі щодо кількості нульових шаблонів поліномів (див., Наприклад, цей документ ), можна показати, що розмір VC є . Це передбачає включення BPP / poly P / poly для арифметичних схем.