Яке максимальне значення розбіжності Kullback-Leibler (KL)


15

Я буду використовувати розбіжність KL в коді python, і я отримав цей підручник .

У цьому підручнику реалізувати розбіжність KL досить просто.

kl = (model * np.log(model/actual)).sum()

Як я розумію, розподіл ймовірностей modelі actualповинен бути <= 1.

Моє запитання, яке максимальне обмежене / максимально можливе значення k ?. Мені потрібно знати максимально можливе значення відстані kl як для максимально обмеженого в моєму коді.


Відповіді:


19

Або навіть з тією ж підтримкою, коли один розподіл має набагато товстіший хвіст, ніж інший. Візьміть коли тоді і Існують інші відстані, які залишаються обмеженими, наприкладp ( x ) = щільність Коші 1

KL(P||Q)=p(x)log(p(x)q(x))dx
ДоЛ(Р||Q)=1
p(x)=1π11+x2Cauchy densityq(x)=12πexp{x2/2}Normal density
1
KL(P||Q)=1π11+x2logp(x)dx+1π11+x2[log(2π)/2+x2/2]dx
1π11+x2x2/2dx=+
  • відстань, що еквівалентно загальному віддалі варіації,L¹
  • відстані Вассерштейна
  • відстань Хеллінгера

1
Дуже добре зауваження @ Xi'an
Carlos Campos

Завдяки @ Xi'an це означає, що навіть сума всіх бункерів для обох розподілів = 1, kl розбіжність не має максимальної межі? чи є у вас інші функції відстані для двох розподілів ймовірностей, які визначили максимальну обмежену / статичну межу?
користувач46543

Чи P в цьому випадку абсолютно безперервний щодо Q?
Sangwoong Yoon

У якому випадку"? KL не визначається як такий для розподілів, які не є абсолютно безперервними один до одного, я вважаю.
Сіань

13

Для розподілів, які не мають однакової підтримки, розбіжність KL не обмежена. Подивіться на визначення:

KL(P||Q)=p(x)ln(p(x)q(x))dx

якщо P і Q не мають однакової підтримки, існує деяка точка де і , завдяки чому KL переходить до нескінченності. Це також стосується дискретних розподілів, що у вашому випадку. p ( x ) 0 q ( x ) = 0xp(x)0q(x)=0

Редагувати: Можливо, кращим вибором для вимірювання розбіжності між розподілами ймовірностей буде так звана відстань Вассерстейна, яка є метрикою і має кращі властивості, ніж розбіжність KL. Він став досить популярним завдяки застосуванню в глибокому навчанні (див. Мережі WGAN)


Завдяки @ carlos-campos мій розподіл і фактичної, і моделі мають однакову умову, яка є сумою всіх бункерів = 1. Це означає, що моя розбіжність Kl все ще не має максимальної межі? Подивлюся на відстань
wassertein

чи має чітка максимальна межа відстані Васшерстейна чи Землі? бо мені це потрібно.
користувач46543

@ user46543 Відстань у Wasserstein може бути такою ж, як
Марк Л. Стоун,

Привіт @ MarkL.Stone, так що немає функції відстані для обчислення відстані між двома розподілами ймовірностей, яка має статичну максимальну межу? наприклад, тоді як два розподіли ймовірності мають суму 1, а максимальна межа відстані буде 1. Чи правильно я?
user46543

4

Щоб додати до відмінних відповідей Карлоса та Сіану , також цікаво відзначити, що достатньою умовою для кінцевої розбіжності KL є те, що обидві випадкові величини мають однакову компактну опору і обмеження опорної щільності. . Цей результат також встановлює неявну межу для максимуму розбіжності KL (див. Теорему та доказ нижче).


Теорема: Якщо щільності і мають однакову компактну опору і щільність обмежена на цій опорі (тобто має кінцеву верхню межу), то .q X p K L ( P | | Q ) < pqXpKL(P||Q)<

Доказ: Оскільки має компактну підтримку це означає, що існує деяке додатне мінімальне значення:XqX

q_infxXq(x)>0.

Аналогічно, оскільки має компактну підтримку це означає, що є деяке позитивне значення надкладу:pX

p¯supxXp(x)>0.

Більше того, оскільки це обидві щільності на одній опорі, а остання обмежена, маємо . Це означає що:0<q_p¯<

supxXln(p(x)q(x))ln(p¯)ln(q_).

Тепер, нехай є останньою верхньою межею, ми чітко маємо так що:L_ln(p¯)ln(q_)0L_<

KL(P||Q)=Xln(p(x)q(x))p(x)dxsupxXln(p(x)q(x))Xp(x)dx(ln(p¯)ln(q_))Xp(x)dx=L_<.

Це встановлює необхідну верхню межу, що доводить теорему.


Результат правильний, але обмеження важке: густина Beta не користується компактною підтримкою, коли . B(α,β)max(α,β)>1
Сіань

Це правда: це лише достатня умова. Слабші умови вітаються!
Бен - Відновлення Моніки
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.