Відмінності між дистанцією Бхаттачарія та різницею KL


33

Я шукаю інтуїтивне пояснення для наступних питань:

У теорії статистики та інформації, чим відрізняється відстань Бхаттачарія від розбіжності KL як міри різниці між двома дискретними розподілами ймовірностей?

Чи не мають вони абсолютно ніяких зв’язків і вимірюють відстань між двома розподілами ймовірностей абсолютно різним чином?

Відповіді:


36

Коефіцієнт Бхаттачарія визначається як

DB(p,q)=p(x)q(x)dx
dH(p,q)
dH(p,q)={1DB(p,q)}1/2
dKL(pq)2dH2(p,q)=2{1DB(p,q)}.

Однак це не питання: якщо відстань Бхаттачарія визначається як тоді d B ( p , q ) = - log D B ( p , q )

гБ(p,q)=деф-журналDБ(p,q),
dB(p,q)=logDB(p,q)=logp(x)q(x)dx=deflogh(x)dx=logh(x)p(x)p(x)dxlog{h(x)p(x)}p(x)dx=12log{h2(x)p2(x)}p(x)dx=12log{q(x)p(x)}p(x)dx=12dKL(pq)
dKL(pq)2dB(p,q).
log(x)1x0x1,
enter image description here

we have the complete ordering

dKL(pq)2dB(p,q)2dH(p,q)2.

2
Brilliant! This explanation should be the one I am looking for eagerly. Just one last question: in what case (or what kinds of P and Q) will the inequality becomes equality?
JewelSue

1
Given that the log() function is strictly convex, I would assume the only case for equality is when the ratio p(x)/q(x) is constant in x.
Xi'an

5
And the only case when p(x)/q(x) is constant in x is when p=q.
Xi'an

8

I don't know of any explicit relation between the two, but decided to have a quick poke at them to see what I could find. So this isn't much of an answer, but more of a point of interest.

For simplicity, let's work over discrete distributions. We can write the BC distance as

dBC(p,q)=lnx(p(x)q(x))12

and the KL divergence as

dKL(p,q)=xp(x)lnp(x)q(x)

Now we can't push the log inside the sum on the BC distance, so let's try pulling the log to the outside of the KL divergence:

dKL(p,q)=lnx(q(x)p(x))p(x)

Let's consider their behaviour when p is fixed to be the uniform distribution over n possibilities:

dKL(p,q)=lnnln(xq(x))1ndBC(p,q)=ln1nlnxq(x)

On the left, we have the log of something that's similar in form to the geometric mean. On the right, we have something similar to the log of the arithmetic mean. Like I said, this isn't much of an answer, but I think it gives a neat intuition of how the BC distance and the KL divergence react to deviations between p and q.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.