Я спробую спокутувати попередню помилку, показавши щось протилежне - що достатньо зразків (нижня межа майже щільно)! Подивіться, що ви думаєте….Θ~(1ϵ2)1/ϵ2
Ключова інтуїція починається з двох спостережень. По-перше, для того, щоб розподіли мали відстань , повинні бути точки з високою ймовірністю ( ). Наприклад, якби у нас був точки ймовірності , ми мали б .L2ϵΩ(ϵ2)1/ϵ3ϵ3∥D1−D2∥2≤1ϵ3(ϵ3)2−−−−−−√=ϵ3/2<ϵ
По-друге, розглянемо рівномірні розподіли з відстані . Якби у нас були точки ймовірності , то вони відрізнялися б від а зразків було б достатньо. З іншого боку, якби у нас були точки , вони повинні відрізнятись від і знову зразків (постійне число в бал) достатньо. Таким чином, ми можемо сподіватися, що серед згаданих раніше точок високої ймовірності завжди є якийсь момент, що відрізняється «достатньою», що малює його.L2ϵO(1)O(1)O(ϵ)1/ϵ2O(1/ϵ2)O(ϵ2)O(1/ϵ2)O(1/ϵ2)
Алгоритм. Враховуючи і параметр довіри , нехай . Намалюйте зразки з кожного розподілу. Нехай - відповідна більша, менша кількість зразків для точки . Якщо є якась для якої і , оголосимо розподіли різні. В іншому випадку заявляйте їх однаково.ϵMX=Mlog(1/ϵ2)Xϵ2ai,biii∈[n]ai≥X8ai−bi≥ai−−√X√4
Межі правильності та достовірності ( ) залежать від наступної леми, яка говорить про те, що всі відхилення відстані походять від точок, ймовірності яких відрізняються від .1−e−Ω(M)L2Ω(ϵ2)
Претензія. Припустимо . Нехай. Нехай . Тоді
∥D1−D2∥2≥ϵδi=|D1(i)−D2(i)|Sk={i:δi>ϵ2k}
∑i∈Skδ2i≥ϵ2(1−2k).
Доказ . Маємо
Зв’яжемо другу суму; ми хочемо максимізувати умови . Оскільки функція суворо опукла і збільшується, ми можемо збільшити ціль, взявши будь-який і збільшивши на , зменшивши на . Таким чином, ціль буде максимально досягнута якомога більше термінів при їх максимальних значеннях, а решта -
∑i∈Skδ2i + ∑i∉Skδ2i≥ϵ2.
∑i∉Skδ2i∑i∉Skδi≤2x↦x2δi≥δjδiγδjγ0. Максимальне значення кожного терміна - , і є щонайбільше умови цього значення (оскільки вони становлять щонайбільше ). Тож
ϵ2k2kϵ22∑i∉Skδ2i≤2kϵ2(ϵ2k)2=2ϵ2k. □
Претензія . Нехай . Якщо , існує принаймні одна точка з і .pi=max{D1(i),D2(i)}∥D1−D2∥2≥ϵi∈[n]pi>ϵ24δi≥ϵpi√2
Доказ . По-перше, всі точки в мають за визначенням (і не може бути порожнім для за попередньою заявою).Skpi≥δi>ϵ2kSkk>2
По-друге, тому що , ми маємо
або, переставляючи,
тому нерівність
містить щонайменше одну точку в . Тепер виберіть . ∑ipi≤2
∑i∈Skδ2i≥ϵ2(12−1k)∑i∈Skpi,
∑i∈Sk(δ2i−piϵ2(12−1k))≥0,
δ2i≥piϵ2(12−1k)
Skk=4□
Претензія (помилкові позитиви) . Якщо , наш алгоритм оголошує їх різними з вірогідністю не більше .D1=D2e−Ω(M)
Ескіз . Розглянемо два випадки: і . У першому випадку кількість зразків не перевищуватиме від будь-якого розподілу: Середня кількість зразків а пов'язаний хвіст говорить про те, що з ймовірністю , зразки не перевищують середнього значення за добавкою ; якщо ми обережні, щоб утримувати значення у хвостовому зв’язку, ми можемо об'єднати прив’язані до них незалежно від того, скільки таких точок є (інтуїтивно, обмеження зменшується експоненціально у кількості можливих точок).pi<ϵ2/16pi≥ϵ2/16iX/8<X/16e−Ω(X/pi)=ϵ2e−Ω(M/pi)iX/16pi
У випадку , ми можемо використати обмеження Черноффа: Це говорить про те, що, коли ми беремо вибірок і точка складається з ймовірністю , ймовірність відрізняється від її середньої на - це не більше . Нехай , тому ймовірність обмежена .pi≥ϵ2/16mppmcpm−−−√e−Ω((cpm√)2/pm)=e−Ω(c2)c=X√16e−Ω(X)=ϵ2e−Ω(M)
Тож з ймовірністю , (для обох розподілів) кількість зразків знаходиться в межах його середнього . Таким чином, наш тест не набере цих балів (вони дуже близькі один до одного), і ми можемо об'єднати всі з них. 1−ϵ2e−Ω(M)ipiXϵ2−−−−√X√16piXϵ216/ϵ2□
Претензія (хибні негативи) . Якщо , наш алгоритм оголошує їх однаковими з ймовірністю не більше .∥D1−D2∥2≥ϵϵ2e−Ω(M)
Ескіз . Існує деякий момент з і . Той самий зв’язаний Чернофф, як і в попередній претензії, говорить про те, що з вірогідністю кількість зразків відрізняється від його середнього не більше . Це для (WLOG) розподілу який має ; але існує ще менша ймовірність кількості зразків від розподілуipi>ϵ2/4δi≥ϵpi−−√/21−ϵ2e−Ω(M)ipimpim−−−√X√161pi=D1(i)=D2(i)+δii2 відрізняється від середнього значення цією кількістю добавки (оскільки середнє значення та дисперсія нижчі).
Тож з великою часткою ймовірності кількість зразків з кожного розподілу знаходиться в межах його середнього значення; але їхні ймовірності різняться на , тому їхні значення різняться на
ipiXϵ2−−−√X√16δi
Xϵ2δi≥Xpi−−√2ϵ=piXϵ2−−−−√X−−√2.
Тож з великою ймовірністю для точки кількість зразків відрізняється щонайменше . i#samples(1)−−−−−−−−−−−√X√4□
Для завершення ескізів нам потрібно більш жорстко показати, що для досить велика кількість зразків досить близька до його середнього значення, що коли алгоритм використовує а не , це нічого не змінює (що повинно бути прямо, залишивши в константах певну кімнату).Mi#samples−−−−−−−−√mean−−−−−√