Інформаційна теорія, яка використовується для доказу акуратних комбінаторних тверджень?


54

Які ваші улюблені приклади, коли теорія інформації використовується для доведення чіткого комбінаторного твердження простим способом?

Деякі приклади , які я можу думати про те , пов'язані з нижніх меж для локально декодуємих кодів, наприклад, в цій статті: припустимо , що для зв'язки довічних рядків довжини n справедливо, що для кожного i , для k i різних пар { j 1 , j 2 }, e i = x j 1x j 2 . Тоді m є щонайменше експоненціальним у n, де показник лінійно залежить від середнього відношення kx1,...,xmnikij1,j2

ei=xj1xj2.
.ki/m

Інший (споріднений) приклад - деякі ізопериметричні нерівності булевого куба (не соромтеся детальніше пояснювати це у своїх відповідях).

У вас є більше приємних прикладів? Переважно, короткий і легкий для пояснення.


чи може хтось дати відповідь на "Інший (споріднений) приклад - це деякі ізопериметричні нерівності на булевому кубі"?
vzn

Відповіді:


40

Доказ Мозера про конструктивну локальну лему Ловаша . Він в основному показує, що в умовах локальної леми другий найпростіший алгоритм для SAT можна придумати твори. (Першим найпростішим може бути просто спробувати випадкове призначення, поки одна не працює. Друга найпростіша - це вибрати вибір випадкового завдання, знайти незадовільний пункт, задовольнити його, а потім подивитися, які ще пункти ви зламали, повторили та повторіть до завершення.) Доказ того, що це працює в поліноміальний час, - це, мабуть, найелегантніше використання теорії інформації (або складності Колмогорова, як би ви цього не хотіли назвати), я коли-небудь бачив.


1
Прекрасний доказ складності Колмогорова Мозера пояснюється тут: blog.computationalcomplexity.org/2009/06/… , але я повинен визнати, що я шукав більше типу прикладу ентропії / взаємної інформації / -розрахунку ...
Дана Мошковіц

Ось кілька цікавих застосувань складності Колмогорова, наведені як відповіді на це питання: cstheory.stackexchange.com/questions/286
arnab

Террі Тао також обговорив аргумент Мозера у своєму блозі: terrytao.wordpress.com/2009/08/05/…
Ентоні Левер'є

5
Насправді, у його другій статті (з Tardos) вам більше не потрібно звертатися до рекурсії. Ви просто шукаєте незадоволений пункт, вибираєте випадкове призначення для його змінних та повторюєте . Це воно. Чомусь простіший алгоритм (маючи той самий аналіз) не зациклювався.
Yuval Filmus

@DanaMoshkovitz: Я не знаю, чому мені не прийшло в голову сказати раніше у відповідь на ваш коментар: Складність та ентропія Колмогорова багато в чому рівнозначні. Див., Наприклад, Hammer-Romaschenko-Shen-Vershchagin: dx.doi.org/10.1006/jcss.1999.1677 . Наприклад, на основі [HRSV] доказ Шемаревої леми у відповіді арнаба можна довести по суті тим же доказом, використовуючи складність Колмогорова замість ентропії. Різниця - це лише точка зору: K - це довжина опису, H - приблизно ... Іноді одне легше / природніше, ніж інше. pilogpi
Джошуа Грохов

33

Мій улюблений приклад цього типу - докази лемми Шерера на основі ентропії. (Я дізнався про цей доказ і про кілька інших дуже гарних з Ентропії та підрахунку Джайкумара Радхакришнана .)

Претензія: Припустимо, у вас є точок в R 3, які мають n x чітких проекцій на площині y z , n y різних проекцій на площині x z і n z різних проекцій на площину x y . Тоді n 2n x n y n z .nR3nxyznyxznzxyn2nxnynz

Доведення: Нехай - точка, рівномірно обрана навмання з n точок. Нехай p x , p y , p z позначають його проекції на площини y z , x z і x y відповідно. p=(x,y,z)npxpypzyzxzxy

З одного боку, , Н [ р х ] лог п х , Н [ р у ] увійти п у і Н [ р г ] увійти п г , основними властивостями ентропії.H[p]=lognH[px]lognxH[py]lognyH[pz]lognz

З іншого боку, маємо а також H [ p x ] = H [ y ] + H [ z | y ] H [ p y ] = H [ x ] + H [ z

H[p]=H[x]+H[y|x]+H[z|x,y]
H[px]=H[y]+H[z|y]
H [ p z ] = H [ x ] + H [ y | x ] Додавання останніх трьох рівнянь дає нам: H [ p x ] + H [ p y ] + H [ p z ] = 2 H [ x ] + H [ y ] + H [ y | х ] + Н
H[py]=H[x]+H[z|x]
H[pz]=H[x]+H[y|x]
H[px]+H[py]+H[pz]= 2H[x]+H[y]+ H[y|x]+ + H [ z | y ] 2 H [ x ] + 2 H [ y | x ] + 2 H [ z | x , y ] = 2 H [ p ] , де ми використовували той факт, що кондиціонування зменшує ентропію (загалом, H [ a ] H [ a | b ]H[z|x] +H[z|y] 2H[x]+2H[y|x]+2H[z|x,y]= 2H[p]H[a]H[a|b]для будь-яких випадкових величин ).a,b

2lognlognx+logny+lognzn2nxnynz


6
Документ, який слід перевірити, - це "Гіперграми, Ентропія та Нерівності" Ехуда Фрідгута. Це показує, як перспектива ентропії, зокрема узагальнена лема Шерера, може легко відновити багато стандартних нерівностей, а також деякі нестандартні, складні на вигляд. Я думаю, що це дає освітлюючу перспективу. Посилання: ma.huji.ac.il/~ehudf/docs/KKLBKKKL.pdf
Енді Друкер

26

p(LR,E)vL(d(v)!)1/d(v)

  • MH(M)=logp
  • vLXvRvM
  • X=(Xv:vL)MH(M)=H(X)
  • LH(X)=vLH(Xv|Xu:u<v,)
  • Xu:u<v,Nv=|N(v)Xu:u<v|v
  • NvH(Xv|Xu:u<v,)=H(Xv|Xu:u<v,,Nv)
  • Xu:u<v,H(Xv|Xu:u<v,,Nv)H(Xv|Nv)
  • Nv1,,d(v)
  • H(Xv|Nv)NvH(Xv|Nv)=i=1d(v)1d(v)H(Xv|Nv=i)1d(v)i=1d(v)logi=log((d(v)!)1/d(v)).
  • Результат випливає, поєднуючи всі нерівності разом і беручи показники.

GvV(G)(d(v)!)1/2d(v)


1
H(XvNv)H(XvNv=i)logi

Ви абсолютно правильні, і я відредагував відповідь, щоб використати нерівність.
Деррік Столі

20

Дуже приємні приклади містяться у двох працях Піппенгера Інформаційно-теоретичний метод комбінаторної теорії. Дж. Гребінь. Теорія, сер. A 23 (1): 99-104 (1977) та ентропія та перерахування булевих функцій. Угоди IEEE з інформаційної теорії 45 (6): 2096-2100 (1999). Власне, декілька робіт Піппенджера містять милі докази комбінаторних фактів за допомогою ентропії / взаємної інформації. Також дві книги: Jukna, Extremal Combinatorics With Applications in Computer Science та Aigner, Combinatorial Search мають кілька прикладних прикладів. Мені також подобаються два документи Madiman et al. Інформаційно-теоретичні нерівності в адитивній комбінаториці та оцінки Теренс Дао, логічний підсумок ентропії (їх можна знайти за допомогою Google Академії). Сподіваюся, це допомагає.


Схоже, чудовий список для читання!
Дана Мошковіц

17

Ще одним чудовим прикладом є почергове підтвердження лемми регулярності графа Семереді Террі Тао . Він використовує інформаційно-теоретичну перспективу, щоб довести сильну версію леми регулярності, яка виявляється надзвичайно корисною у своєму доказі лемматичності регулярності для гіперграфів . Доказ Дао є, безумовно, самим стислим доказом леми щодо регулярності гіперграфа.

Дозвольте спробувати пояснити на дуже високому рівні цю інформаційно-теоретичну перспективу.

GV1V2V1×V2Gρ=|E|/|V1||V2|GϵU1V1U2V2U1U2ρ±ϵ|U1||U2|/|V1||V2|

x1V1x2V2ϵU1,U2ϵGx1U1x2U2(x1,x2)Gx1U1x2U2(x1,x2)

V1V2U1V1,U2V2U1×U2ϵx1x2E(x1,x2)U1(x1)U2(x2)U1U2Ex1|U1x2|U2x1x2


15

В основному цілий курс, присвячений цьому питанню:

https://catalyst.uw.edu/workspace/anuprao/15415/86751

Курс ще триває. Тож не всі замітки доступні на момент написання цього тексту. Також були згадані деякі приклади з курсу.


3
приємний покажчик: виглядає як чудовий клас.
Суреш Венкат

1
Наскільки я можу сказати, ця пропозиція - це напівкурс, із примітками, що містять кілька прикладів, які дають хороші відповіді на моє запитання, та половинний семінар, що охоплює такі приклади, як нижні межі спілкування, екстрактори, паралельне повторення тощо, для яких потрібно набагато більше, ніж просто теорія інформації (тут немає приміток, лише посилання на оригінальні статті).
Дана Мошковіц

7

n2d1±ϵdO(logn/ϵ2)Ω(logn/(ϵ2log(1/ϵ)))log(1/ϵ)


4
1d

Дуже природно і приємно, що ці чисто геометричні результати були доведені людьми TCS!
ilyaraz

6

mu[m]x[m]x=utt

O(m1/t)logmuti[t](logm)/tiu

Тепер для нижньої межі. ДозволяєX[m]H[X]=logmX1,,XttH[X]=H[X1]+H[X2|X1]++H[Xt|X1,,Xt1]tlogsssm1/t

t>1



3

Аналіз середніх випадків алгоритмів, що використовують складність Колмогорова , Цзян, Лі, Вітаній.

«Аналіз середньої складності алгоритмів є дуже практичною, але дуже складною проблемою в інформатиці. За останні кілька років ми продемонстрували, що складність Колмогорова є важливим інструментом для аналізу середньої складності алгоритмів. Ми розробили метод несприйнятливості [7]. У цій роботі ми використовуємо кілька простих прикладів для подальшої демонстрації сили та простоти такого методу. Ми доводимо межі середньої кількості стеків (черг), необхідних для сортування послідовних або паралельних Queueusort або Stacksort. '

Див., Наприклад, Складність Колмогорова та трикутна проблема типу Хайльброна .


3

Еквівалентність вибірки та пошуку Скоттом Ааронсоном. Тут він демонструє еквівалентність проблеми вибірки та пошуку в теорії складності щодо обгрунтованості дисертації Церкви Тюрінга. Стандартна теорія інформації, алгоритмічна теорія інформації та складність Колмогорова використовуються фундаментально.

Він підкреслює:
" Підкреслимо, що ми не використовуємо складність Колмогорова як просто технічну зручність або як скорочення для аргументу рахунку. Швидше, складність Колмогорова здається важливою навіть для визначення проблеми пошуку ".


0

Цей простий, а також наближений: скільки комбінацій 10 6 речей з 10 9 , що дозволяє дублювати? Правильна формула така

N = (10 6 + 10 9 )! / (10 6 ! 10 9 !) ~ = 2 11409189.141937481

Але уявіть собі, як давати вказівки ходити по ряду мільярдів відер, опускаючи мільйон мармуру у відра по дорозі. Буде ~ 10 9 "крок до наступного відра" інструкції та 10 6 "крапля мармуру" інструкції. Загальна інформація є

log 2 (N) ~ = -10 6 log 2 (10 6 / (10 6 + 10 9 )) - 10 9 log 2 (10 9 / (10 6 + 10 9 )) ~ = 11409200.432742426

Це смішний, але досить хороший спосіб наблизити до (журналу) підрахунку. Мені це подобається, бо це працює, якщо я забуду робити комбінаторику. Це рівнозначно сказати це

(а + б)! / а! б! ~ = (a + b) (a + b) / a a b b

що на зразок використання апроксимації Стірлінга, скасування та пропущення чогось.


2
Це може бути читабельніше, якщо ви робите загальні обмежені, а не конкретні числа. Я думаю, ви говорите про наближення на основі ентропії обсягу кулі Хеммінга.
Сашо Ніколов

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.