Принцип Мінімакса Яо щодо алгоритмів Монте-Карло


22

У знаменитому принципі Мінімакса Яо зазначено співвідношення між розподільною складністю та рандомізованою складністю. Нехай проблема з кінцевим безліччю входів і кінцевого безлічі детермінованого алгоритму для вирішення . Нехай позначає вхідний розподіл, а позначає розподіл ймовірностей на . Тоді принцип констатує PXAPDRA

minAAEcost(A,D)maxxXEcost(R,x)for all D and R.
Цей доказ прямо випливає з теореми мінімакса фон Неймана для ігор з нульовою сумою.

Здебільшого принцип Яо стосується лише алгоритмів Лас-Вегаса , але його можна узагальнити до алгоритмів Монте-Карло наступним чином.

12minAAEcost2ϵ(A,D)maxxXEcostϵ(R,x)for all DR and ϵ[0,1/2]
де costϵ(,) позначає вартість алгоритмів Монте-Карло, що помиляє ймовірність не більше ϵ .

В оригінальній роботі Яо відношення алгоритмів Монте-Карло наведено в теоремі 3 без доказів. Будь-який натяк на доведення цього?

Відповіді:


6

Це лише розширений коментар до відповіді Маркоса, використовуючи його позначення. Я не зовсім в змозі прослідкувати деталі його аргументу, а наведений нижче досить короткий і простий.

За допомогою усереднення

Aq(A)xd(x)ϵ(A,x)=xd(x)Aq(A)ϵ(A,x)λ.

Вищенаведений факт та нерівність Маркова означають .Aβ(2λ)q(A)1/2

Таким чином ми отримуємо:

maxxAq(A)r(A,x)xd(x)Aq(A)r(A,x)=Aq(A)xd(x)r(A,x)Aβ(2λ)q(A)xd(x)r(A,x)(Aβ(2λ)q(A))minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)

8

Я спробую на цьому. Я буду використовувати оригінальне позначення Яо. Таким чином буде легше протиставити його статті та його визначення.

Нехай є кінцевим набором входів, а - кінцевим набором детермінованих алгоритмів, які можуть не дати правильної відповіді на деякі входи. Нехай також , якщо дає правильну відповідь на , і в іншому випадку. Також позначаємо через r ( A , x ) кількість запитів, зроблених на вході , або еквівалентно глибину дерева рішеньIA0ϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxA

Середня вартість: Враховуючи розподіл ймовірностей на I , середня вартість алгоритму A A 0 є C ( A , d ) = x I d ( x ) r ( A , x ) .dIAA0C(A,d)=xId(x)r(A,x)

Складність розподілу: Нехай . Для будь-якого розподілу d на входах, нехай β ( λ ) - підмножина A 0, задана β ( λ ) = { A : A A 0 , x I d ( x ) ϵ ( A , x ) λ }λ[0,1]dβ(λ)A0β(λ)={A:AA0,xId(x)ϵ(A,x)λ}. Складність розподілу з похибкою для обчислювальної задачі P визначається як F 1 , λ ( P ) = max d min A β ( λ ) C ( A , d ) .λPF1,λ(P)=maxdminAβ(λ)C(A,d)

-толерантність:λРозподіл на сімейство A 0 є λ -толерантним, якщо max x IA A 0 q ( A ) ϵ ( A , x ) λ .qA0λmaxxIAA0q(A)ϵ(A,x)λ

Очікувана вартість: Для рандомізованого алгоритму нехай q - розподіл ймовірностей, який є λ -толерантним на A 0 . Очікувана вартість з R для даного входу х є Е ( Р , х ) = Σ 0 д ( ) г ( , х ) .RqλA0RxE(R,x)=AA0q(A)r(A,x)

Випадкова складність: Нехай . Рандомізована складність з похибкою λ дорівнює F 2 , λ = min R max x I E ( R , x ) .λ[0,1]λF2,λ=minRmaxxIE(R,x)

Тепер ми готові розпочати справу. Що ми хочемо довести - це розподіл на входах та рандомізований алгоритм R (тобто розподіл q на A 0 )dRqA0

Принцип Мінімакса Яо для алгоритмів Монтекарло дляЙ[0,1/2].

maxxIE(R,x)12minAβ(2λ)C(A,d)
λ[0,1/2]

I will follow an approach given by Fich, Meyer auf der Heide, Ragde and Wigderson (see Lemma 4). Their approach does not yield a characterization for Las Vegas algorithms (only the lower bound), but it is sufficient for our purposes. From their proof, it easy to see that for any A0 and I

Claim 1. maxxIE(R,x)minAA0C(A,d).

Щоб отримати правильні цифри там, ми зробимо щось подібне. Враховуючи, що розподіл ймовірностей заданий рандомізованим алгоритмом R, є λ -толерантним на A 0, маємо, що λqRλA0

λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.
If we replace the family A0 with β(2λ) we see that

λmaxxI{AA0q(A)ϵ(A,x)}maxxI{Aβ(2λ)q(A)ϵ(A,x)}xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

where the second inequality follows because β(2λ)A0, and the last inequality is given by the definition of β(2λ) where the summation divided by 2 cannot be greater than λ. Hence,

maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

By noting that ϵ maps to {0,1} and r maps to N and Claim 1 above, now we can safely replace the function ϵ in the inequality above by r(A,x) to obtain the desired inequality.


Is there a short explanation for where the factor of 2 comes from?
Robin Kothari

in short, it comes from the definition of β(2λ). The summation in the definition divided by 2 is at most λ.
Marcos Villagra

something seems strange to me. by definition, maxAβ(2λ)){12xId(x),ϵ(A,x)}λ so why the min?
Sasho Nikolov

and i don't understand the last sentence. how did you make an entire argument about ϵ and then replaced it with r?
Sasho Nikolov

regarding your first question, I added more details.
Marcos Villagra
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.