Узагальнення "середньої хитрості" до вищих вимірів?


22

Для рандомізованих алгоритмів A приймаючи реальні значення, "серединна хитрість" - це простий спосіб зменшити ймовірність провалу до будь-якого порогу δ>0 , ціною лише мультиплікативного t=O(log1δ)накладні. А саме, якщовисновокAпотрапляє у "хороший діапазон"I=[a,b]з вірогідністю (принаймні), то виконується незалежна копіяі, якщо взяти медіану їх результатівце призведе до падіння значенняз вірогідністю принаймніза межами Черноффа / Гоффдінга.1 , ... , т в 1 , ... , т I 1 - б2/3A1,,Ata1,,atI1δ

Чи є узагальнення цього "трюку" на більш високі розміри, скажімо Р г {(х,г)S}2 / 3х1-δRd , де хороший діапазон зараз є опуклим набором (або кулькою, або будь-яким достатньо приємним і структурованим набором)? Тобто, заданий рандомізований алгоритм A виводить значення в R dRd та "добрий набір" такий, що для всіх , як можна підвищити ймовірність успіху на лише з логарифмічною вартістю в 1 / δ ?SRdPr{A(x,r)S}2/3x1δ1/δ

(Фразоване по-різному: задано фіксованим, довільне a1,,atRd з гарантією, що принаймні 2t3 зaiналежатьS, чи існує процедура виведення значення зS? Якщо так, то чи є ефективний?)

І який мінімальний набір припущень, необхідних для S для досягнення вищезазначеного?

Вибачте, якщо це виявиться тривіально - я не зміг знайти посилання на це питання ...


3
У спеціальному випадку, коли є кубоїдом, чи працює він, якщо використовувати медіанну хитрість у кожному вимірі окремо? Отже, відібрайте купу точок, потім візьміть медіану їх координат у розмірності 1, 2, ..., d, і тоді ви отримаєте точку в R d . Можливо, вам знадобляться зразки O ( log ( d / ϵ ) ) з цією стратегією? SRdO(log(d/ϵ))
Робін Котарі

1
В одновимірному випадку, як правило , ви знаєте , , але не точний інтервал (хоча навіть якщо ви не знаєте , б - середній трюк все ще працює). Чи слід вважати, що ми знаємо S, але лише до перекладу? До перекладу та масштабування? babaS
Сашо Ніколов

@SashoNikolov Я вважаю , що це буде саме «спільне узагальнення» на насправді (наприклад, ми знаємо тільки «хороший куля діаметром е »). Sε
Климент С.

1
Ну, те, що написав Томас у своїй відповіді, є ще більш загальним: він припускає, що ( G у своїй відповіді) - невідомий опуклий набір. SG
Сашо Ніколов

Відповіді:


17

Те, що ви шукаєте, є майже такою ж міцною центральною тенденцією : спосіб зменшення хмари даних вказує на одну точку, так що якщо багато точок даних близькі до якоїсь "основної істини", але решта з них як завгодно далеко, тоді ваш вихід також буде близьким до основної істини. «Точка зриву» такого методу - це частина довільно поганих людей, які він може терпіти. Різниця полягає в тому, що у вашому випадку ви хочете замінити "близько до" на "в опуклому корпусі".

One way to capture this is with the notion of Tukey depth. A point has Tukey depth p (with respect to a given set of n data points) if every halfspace containing the given point also contains at least pn data points. If there is a good convex subspace that you want to be inside, then a point with Tukey depth p will be inside it as long as there are at least (1p)n of the data points inside it. So the breakdown point of this method is the largest value of p that you can attain.

На жаль, ця точка розбиття становить , не близька до 1/2, як для глибини Tukey, так і для вашої проблеми. Ось чому: якщо ваші дані кластеризуються поблизу вершин d + 1 симплексу, тоді як менша частка 1 / ( d + 1 ) є переживаючими (але ви не знаєте, які з них), то будь-яка точка в симплекс безпечно підбирати, оскільки він завжди буде знаходитися в опуклому корпусі нежилих. Але якщо більше 1 / ( d + 1 )1/(d+1)d+11/(d+1)1/(d+1) з точок може бути позашляховиком, ніде не можна вибрати безпечно: яку б точку в обраному симплексі ви не вибрали, вони можуть бути всіма точками з найближчої вершини симплексу, і ви знаходитесь поза корпусом не- чужих людей.

Якщо ви готові терпіти гіршу точку зриву, більше схожу на , існує рандомізований метод пошуку глибокої точки, яка є поліномом і в n, і в d : дивіться мій документO(1/d2)nd

Наближення центральних точок з ітераційними точками Радона, К. Кларксона, Д. Еппштейна, Г. Л. Міллера, К. Стуртиванта та С.-Н. Тенг, 9-й синм. Склад. Геом. , Сан-Дієго, 1993, стор. 91–98, Міжнар. J. Comp. Геом. & Appl. 6 (3): 357–377, 1996, http://kenclarkson.org/center/p.pdf


Yep. In addition I would mention that one can use eps-nets eps-approximations and their various friends as a way to get a small sample that approximates such depth measures well. You do not get a single point, but you get way more information.
Sariel Har-Peled

With your paper's terminology, is there a known efficient way to verify a claimed β-center for rational numbers β?

Якщо під "ефективним" ви маєте на увазі поліном у вимірі, то я не знаю такого результату. У моєму документі лише одна точка, вона не дає більше інформації про просторовий розподіл глибини (наприклад, Саріель натякає на вище).
Девід Еппштейн

Дякую! Якщо відкинути міркування ефективності (поки що), це виглядає так, що для загального випадку довільних опуклих множин немає способу підвищити постійну ймовірність до довільної ймовірності? (оскільки частка хороших балів повинна бути більше ? (чи я щось пропустив - озираючись на це, здається, що друга формуляра, яку я пр., не охоплює ідеї "незалежних повторів", де ми мали б у руцікільканаборів точок, кожен з яких має принаймні2/3частина хороших точок).11d+12/3
Климент С.

1
Один момент, кілька пунктів чи ні, якщо все, що ви знаєте, існує те, що існує опуклий набір, але не там, де він є, і ви хочете мати можливість збільшити ймовірність перебування в правильному наборі, щоб краще, ніж d / (d + 1), тоді частка хороших балів повинна бути принаймні d / (d + 1), щоб обійти симплексний приклад. В іншому випадку супротивник може надати вам дані у вигляді симплексу та обрати випадковим чином епсилон-сусідство однієї грані симплексу як опуклу множину; навіть якщо ви вгадаєте точку біля вершини симплексу навмання, у вас буде принаймні 1 / (d + 1) ймовірність неправильного вибору.
Девід Еппштейн

14

Це акуратне питання, і я про це думав раніше. Ось що ми придумали:

Ви запускаєте свій алгоритм раз , щоб отримати виходи х 1 , , х пR D , і ви знаєте , що з великою часткою ймовірності велика частина х я з падіння в певний хороший набір G . Ви не знаєте, що таке G , тільки що він опуклий. Хороша новина полягає в тому, що існує спосіб отримати точку в G, не маючи додаткової інформації про неї. Назвіть цю точку f ( x 1 , , x n )nx1,,xnRdxiGGGf(x1,,xn) .

Теорема. Для всіх натуральних чисел і d існує функція f : ( R d ) nR d така, що має місце наступне. Нехай x 1 . . . x nR d і нехай G R d - опуклий набір, що задовольняє 1ndf:(Rd)nRdx1...xnRdGRdТодіF(х1,...,Хп)G. Більше того,fобчислюється за багаточленами часу вnd.
1n|{i[n]:xiG}|>dd+1.
f(x1,...,xn)Gfnd

Зауважимо, що при ми можемо задати f медіаною. Отже, це показує, як узагальнити медіану для d > 1 .d=1fd>1

Перш ніж довести цей результат, зауважте, що він є непростим: Нехай і нехай x 1 , , x d є стандартними базовими елементами, а x d + 1 = 0 . Будь-який підмножина d точок міститься в афінному просторі G розмірності d - 1 (що однозначно визначено цими точками). Але жоден сенс не міститься у всіх цих афінних просторах. Отже, є деяка опукла G, яка містить n d / ( d +)n=d+1x1,,xdxd+1=0dGd1G балів, але не містить f ( x 1 , , x n ) , незалежно від значення.nd/(d+1)=df(x1,,xn)

Доказ. Ми використовуємо наступний результат.

Теорема Геллі. Нехай - опуклі підмножини R d . Припустимо, перетин будь-якого d + 1 K i s не порожній. Тоді перетин усіх K i s не порожній.K1...KmRdd+1 KiKi

Клацніть тут, щоб підтвердити теорему Хеллі.

Тепер, щоб довести нашу теорему:

Нехай буде верхня межа числа точок не в G . Розглянемо всі закриті напівпростори K 1 . . . K mR d, що містить щонайменше n - k точок з їх границею, що містить набір точок максимального рангу (це скінченна кількість напівпросторів, оскільки кожен K i визначається d + 1 балами на його межі).k<n/(d+1)GK1...KmRdnkKid+1

The complement of each Ki contains at most k points. By a union bound, the intersection any d+1 Kis contains at least nk(d+1)>0 points. By Helly's theorem (since halfspaces are convex), there is a point in the intersection of all the Kis. We let f be a function that computes an arbitrary point in the intersection of the Kis.

All that remains is to show that the intersection of the Kis is contained in G.

Without loss of generality, G is the convex hull of a subset of the points with full rank. That is, we can replace G with the convex hull of the points it contains. If this does not have full rank, we can simply apply our theorem in lower dimension.

Each face of G defines a halfspace, where G is the intersection of these halfspaces. Each of these halfspaces contains G and hence contains at least nk points. The boundary of one of these half spaces contains a face of G and hence contains a set of points of maximal rank. Thus each of these halfspaces is a Ki. Thus the intersection of all Kis is contained in G, as required.

To compute f, set up a linear program where the linear constraints correspond to Kis and a feasible solution corresponds to a point in the intersection of all the Kis. Q.E.D.

Unfortunately, this result is not very practical in the high-dimensional setting. A good question is whether we can compute f more efficiently:

Open Problem. Prove the above theorem with the additional conclusion that f can be computed in time polynomial in n and d.

Aside: We can also change the problem to get an efficient solution: If x1,,xn have the property that strictly more than half of them lie in a ball B(y,ε), then we can find a point z that lies in B(y,3ε) in time polynomial in n and d. In particular, we can set z=xi for an arbitrary i such that strictly more than half of the points are in B(z,2ε).


I think you basically reinvented Tukey depth as David Eppstein outlines below :)
Suresh Venkat

7

Існує поняття про медіану сукупності точок у великих розмірах і загальних нормах, яка відома під різними назвами. Саме точка, яка мінімізує суму відстаней до всіх точок у множині. Відомо, що він має схожу властивість посилення впевненості, як звичайна медіана з невеликим мультиплікативним збільшенням відстані. Докладні відомості можна знайти в теоремі 3.1 цього документу: http://arxiv.org/pdf/1308.1334.pdf

Одне приємне, що показує ця стаття, - це те, що коефіцієнт, за допомогою якого збільшується відстань, може бути будь-яким постійним> 1, якщо ви можете підсилити довільно високу (але постійну <1) впевненість.

Edit: there is another recent paper on the topic by Hsu and Sabato http://arxiv.org/pdf/1307.1827v6.pdf It mostly analyzes and applies the procedure in which the point in the set with the smallest median distance to the rest of the points is used. This procedure can be used with any metric but only gives an approximation factor of 3.


Thanks, this looks nice! I only skimmed it so far, but (unless I'm mistaken or skipped too fast over it), it deals with the specific case of S being a p-ball; is that correct?
Clement C.

1
Not really. The result is stated for all Banach spaces. For any body that is origin-centered and symmetric around its center there is a corresponding norm in which this body is the unit ball. Since for the purposes of your question we can assume without loss of generality that the convex body is origin-centered we get the result holds for every centrally symmetric convex body. Perhaps with some mild effort the result can be extended to general convex bodies.
Vitaly

1
You need to know the norm in order to compute the minimizer for that norm, though — if you know only that there is a norm but not what it is, you're out of luck.
David Eppstein

1
Ти маєш рацію, Девіде. Потрібно знати норму. (Це означає знання опуклого тіла до центру та масштабування).
Віталій

X0.9(1,0)(+1,0), with probability 0.1, equal to (0,0.0001). The convex "good" set is the line from (-1,0) до (1,0). Але якщо ми беремо багато зразків, то узагальнена медіана буде однією з вибіркових точок, розташованих у(0,0,0001). Узагальнюйте це легко на більш високі розміри, використовуючи гіперплан і трохи зміщені точки.
usul
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.