Ось нижні межі, які я можу показати. Я гадаю, що для фіксованого права нижня межа - Ω ( log n ) , але, природно, я можу помилитися.ϵΩ(logn)
Я буду використовувати послідовність зменшення (тільки для зручності). Основний механізм - це розбиття послідовності на блоки. У i- му блоці будуть n i елементи (тобто ∑ i n i = n ).Lini∑ini=n
Далі ми хочемо, щоб алгоритм досягнув успіху з імовірністю , для деякого параметра δ > 0 .≥1−δδ>0
Перша нижня межа: .Ω(1ϵlog1δ)
й блок має п я = 2 я - 1 елементів, так що L = Л.Г. п . Встановлюємо значення всіх елементів i- го блоку в ( 1 + X i ) / ( 2 n i L ) , де X i - змінна, яка дорівнює 0 або 1 . Зрозуміло, що загальна сума цієї послідовності дорівнює
α = L ∑ i = 1 1 + Xini=2i−1L=lgni(1+Xi)/(2niL)Xi01
Уявіть, що вибиратимемо коженXiз імовірністюβ,що дорівнює1і0 віншому випадку. Для оцінкиαнам потрібна достовірна оцінкаβ. Ми, зокрема, хочемо розрізнити основуβ=1-4ϵі, скажімо,β=1.
α=∑i=1L1+Xi2niL=12+12L(∑i=1LXi).
Xiβ10αββ=1−4ϵβ=1
Тепер уявіть вибірку цих випадкових змінних, і нехай Z 1 , … , Z m - вибіркові змінні. Налаштування Y = ∑ m i = 1 ( 1 - X i ) (зауважимо, що ми беремо суму змінних комплементу ), маємо μ = E [ Y ] = ( 1 - β ) m , і нерівність Черноффа говорить нам що якщо β = 1 - 4mZ1,…,ZmY=∑mi=1(1−Xi)μ=E[Y]=(1−β)m , то μ = 4 ε м , а ймовірність невдачі
Р [ Y ≤ 2 ε т ] = Р [ Y ≤ ( 1 - 1 / 2 ) μ ] ≤ ехр ( - μ ( 1 / 2 ) 2 / 2 ) = exp ( - ϵ m / 2 ) .
Щоб ця кількість була меншою, ніжβ=1−4ϵμ=4ϵm
П[ Y≤ 2 ϵ m ] = P[ Y≤ ( 1 - 1 / 2 ) μ ] ≤ ехр( - μ ( 1 / 2 )2/ 2 ) =Досвід( - ϵ м / 2 ) .
, нам потрібно
m ≥ 2δ .
m ≥ 2ϵln1δ
Ключове зауваження полягає в тому, що нерівність Черноффа є тісною (треба бути обережним, тому що вона не є правильною для всіх параметрів, але вона є правильною в даному випадку), тому не можна робити краще, ніж це (до констант).
Друга нижня межа: .Ω ( логп / логжурналn )
Встановіть розмір го блоку на n i = L i , де L = Θ ( log n / log log n ) - кількість блоків. Елемент i- го блоку має значення α i = ( 1 / L ) / n i . Отже загальна сума значень у послідовності дорівнює 1 .iнi= LiL = Θ ( логп / логжурналn )iαi= ( 1 / L ) / ni1
Тепер ми можемо вирішити вибрати довільний блок, скажімо, й, і встановити всі значення в його блоці як α j - 1 = L α j (замість α j ). Це збільшує внесок j- го блоку з 1 / L до 1 і збільшує загальну масу послідовності до (майже) 2 .jαj - 1= L αjαjj1 / л12
Тепер, неофіційно, будь-який рандомізований алгоритм повинен перевірити значення у кожному з блоків. Як такий, він повинен читати принаймні значення послідовності.L
Для того, щоб вище аргумент більш формальним, з імовірністю , дають вихідну послідовність маса 1 в якості входу (ми називаємо це як оригінальний вхід). В іншому випадку випадковим чином виберіть блок, який має збільшені значення (модифікований вхід). Очевидно, що якщо алгоритм рандомізоване читає менше , ніж, скажімо, L / 8 записів, то є ймовірність (приблизно) 1 / 8 для виявлення модифікованого введення. Таким чином, ймовірність цього алгоритму виходить з ладу, якщо він читає менше, ніж записи L / 8 , принаймні
( 1 - p ) ( 7 /р = 1 / 21L / 81 / 8L / 8
( 1 - р ) ( 7 / 8 ) > 7 / 16 > 1 / 3.
PS Я думаю, якщо більш уважно ставитись до параметрів, перша нижня межа може бути покращена до .Ω ( 1 / ϵ2)