Конкретне розуміння різниці між визначеннями PP та BPP


9

Мене бентежить питання про визначення ПП та БПП . Припустимо, що є характерною функцією для мови . Я повинен бути вірогідною машиною Тюрінга. Чи правильні такі визначення:χL
BPP={L:Pr[χ(x)M(x)]12+ϵxL, ϵ>0}
PP={L:Pr[χ(x)M(x)]>12}

Якщо визначення неправильне, будь ласка, спробуйте внести мінімальні зміни, щоб зробити їх правильними (тобто не дайте іншого еквівалентного визначення, яке використовує лічильну машину чи якусь модифіковану модель). Я не можу належним чином виділити умови щодо ймовірності в обох означеннях.

Деякі конкретні приклади з чітким розумінням тонких моментів були б дуже корисними.

Відповіді:


10

Це мені здається правильним. Різниця між BPP та PP полягає в тому, що для BPP вірогідність повинна бути більшою за на постійну , тоді як для PP вона може бути . Отже, для проблем з BPP ви можете зробити посилення ймовірності з невеликою кількістю повторень, тоді як для загальних проблем з ПП ви не можете.1/2 1/2+1/2n


12

Відповідь Вор дає стандартне визначення. Дозвольте спробувати пояснити різницю трохи інтуїтивніше.

Нехай - алгоритм поліноміально-часової помилки з обмеженою помилкою для мови який відповідає правильно з вірогідністю принаймні . Нехай - вхід, а - розмір введення.MLp12+δxn

Що відрізняє довільний алгоритм з алгоритму є позитивним розривом між ймовірністю прийняття і ймовірності прийняти . PPBPPxLxLНайважливіше в полягає в тому, що розрив становить принаймні . Я спробую пояснити, чому ця відмінність є істотною і дозволяє нам вважати вважати ефективними алгоритмами (навіть передбачається, що вони рівні ), тоді як вважається неефективним (насправді міститьBPPnO(1)BPPPPPPPNP ). Все це випливає з цього розриву.

Для початку поглянемо на уважніше.PP

Зауважте, що якщо алгоритм використовує щонайбільше випадкових бітів під час його виконання, а ймовірність помилки менша ніж то ймовірність помилки насправді , не може бути обраний випадкових бітів зробити неправильний відповідь алгоритму.r(n)2r(n)0

Крім того, алгоритм із часом виконання не може використовувати більше, ніж випадкових бітів, тому якщо помилка ймовірнісного алгоритму з найгіршим випадком часу краще, ніжt(n)t(n)t(n)

З аналогічним аргументом ми можемо показати, що випадок, коли різниця між ймовірністю прийняття та ймовірністю прийняття занадто мала, аналогічний випадку, коли у нас майже немає різниці як у випадку .xLxLPP

Перейдемо тепер до .BPP

У імовірнісних алгоритмах ми можемо збільшити ймовірність правильної відповіді. Скажімо, ми хочемо збільшити вірогідність коректності до для ймовірності помилки (експоненціально мала помилка).1ϵϵ=2n

Ідея проста: запустіть кілька разів і прийміть відповідь більшості.M

Скільки разів нам слід запустити щоб отримати максимум ймовірності помилки ? разів. Доказ наведено внизу цієї відповіді.MϵΘ(δ1lgϵ)

Тепер візьмемо до уваги, що алгоритми, про які ми обговорюємо, повинні бути багаточленними. Це означає, що ми не можемо виконувати більше, ніж поліноміально багато разів. Іншими словами, , або простіше кажучиMΘ(δ1lnϵ)=nO(1)

δ1lgϵ=nO(1)

Це відношення класифікує обмежені ймовірнісні алгоритми помилок на класи залежно від їх ймовірності помилок. Немає різниці між тим, що ймовірність помилки є або позитивною константою (тобто не змінюється на ) або . Ми можемо перейти від однієї до іншої, залишаючись всередині поліноміального часу.ϵ2nn12nO(1)

Однак якщо занадто мала, скажімо, , або навіть тоді ми не можемо збільшити ймовірність правильності та достатньо зменшити ймовірність помилок до потрапити в .δ02nnω(1)BPP

Тут головним є те, що в ми можемо ефективно зменшити ймовірність помилок в експоненціальній формі, тому ми майже впевнені у відповідях, і саме це змушує нас розглядати цей клас алгоритмів як ефективні алгоритми. Ймовірність помилок може бути настільки зменшена, що швидше за все є апаратний збій або навіть падіння метеора на комп'ютер швидше, ніж помилка за імовірнісним алгоритмом.BPP

Це не вірно для , ми не знаємо жодного способу зменшення ймовірності помилок, і нам залишається майже так, як ніби ми відповідаємо, кинувши монету, щоб отримати відповідь (ми не повністю, ймовірності є не половина і половина, але це дуже близько до тієї ситуації).PP


Цей розділ дає доказ того, що для отримання ймовірності помилок коли ми починаємо з алгоритму з розривом ми повинні запустити разів.ϵ(12δ,12+δ)M Θ(δ1lgϵ)

Нехай - алгоритм, який виконує для разів, а потім відповідає відповідно до відповіді більшості. Для простоти припустимо, що непарне, тому у нас немає зв’язків.NkMkk

Розглянемо випадок, . Випадок аналогічний. Тоді Для аналізу ймовірності правильності нам потрібно оцінити ймовірність більшості в пробіги прийняти.xLxL

Pr{M(x) accepts}=p12+δ
Nkk

Нехай дорівнює 1, якщо значенняXiith біг приймає і бути 0якщо він відкидає. Зауважте, що кожен запуск незалежний від інших, оскільки вони використовують незалежні випадкові біти. Таким чиномXis - незалежні булеві випадкові величини де

E[Xi]=Pr{Xi=1}=Pr{M(x) accepts}=p12+δ

Дозволяє Y=Σi=1kXi. Нам потрібно оцінити ймовірність, яку приймає більшість, тобто ймовірність цьогоYk2.

Pr{Nk(x) accepts}=Pr{Yk2}

Як це зробити? Ми можемо використовувати граничну форму Черноффа, яка говорить нам про концентрацію ймовірності поблизу очікуваного значення. Для будь-якої випадкової величиниZ з очікуваною вартістю μ, ми маємо

Pr{|Zμ|>αμ}<eα24μ

що говорить, що ймовірність того Zє далеко від очікуваного значення експоненціально зменшується, оскільки збільшується. Ми будемо використовувати його для обмеження ймовірності .αμμαY<k2

Зауважимо, що за лінійністю очікування маємо

E[Y]=E[Σi=1kXi]=Σi=1kE[Xi]=kpk2+kδ

Тепер ми можемо застосувати обмежений зв'язок Чорноффа. Ми хочемо верхньої межі ймовірності . Межа Чорноффа дасть верхню межу щодо ймовірності якої достатньо. Ми маємоY<k2|Y(k2+kδ)|>kδ

Pr{|Ykp|>αkp}<eα24kp

і якщо ми виберемо так, що ми закінчили, то виберемо .ααkp=kδα=δp2δ2δ+1

Тому ми маємо

Pr{Y<k2}Pr{|Y(k2+kδ)|>kδ}Pr{|Ykp|>αkp}<eα24kp

і якщо ви зробите розрахунки, ви побачите це

α24kpδ24δ+2k=Θ(kδ)

ми маємо

Pr{Y<k2}<eΘ(kδ)

Ми хочемо, щоб помилка була не більше , тому ми хочемоϵ

eΘ(kδ)ϵ

або іншими словами

Θ(δ1lgϵ)k

Один важливий момент в тому , що в процесі ми будемо використовувати набагато більше випадкових бітів , а також час роботи збільшиться, тобто найгірший приработку час буде приблизно разів перевищує обкатки час .NkkM

Тут була середня точка розриву 12. Але загалом це не повинно бути так. Ми можемо прийняти подібний метод для інших цінностей, взявши інші фракції замість більшості для прийняття.


7

Використання позначень:

BPP={L: вірогідна поліномальна машина Тьюрінга M, і костант 0<c1/2 такий як xPr[χL(x)=M(x)]12+c}

PP={L: вірогідна поліномальна машина Тьюрінга M такий як xPr[χL(x)=M(x)]>12}

Різниця вказала adrianN, і ви також можете подивитися на Вікіпедія PP проти BPP

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.