У 1946 році геофізик і баєсовський статистик Гарольд Джеффріс представив те, що ми сьогодні називаємо розбіжністю Куллбека-Лейблера, і виявив, що для двох розподілів, які "нескінченно близькі" (будемо сподіватися, що хлопці Math SE цього не бачать ;-), ми можемо написати їхня розбіжність Куллбека-Лейблера як квадратична форма, коефіцієнти якої задані елементами інформаційної матриці Фішера. Він інтерпретував цю квадратичну форму як елемент довжини риманівського багатоманіття, при цьому інформація Фішера відігравала роль риманівської метрики. З цієї геометризації статистичної моделі він отримав пріоритет свого Джеффріса як міру, природно індуковану Римановою метрикою, і цю міру можна інтерпретувати як внутрішньо рівномірне розподіл на колекторі, хоча, загалом, це не є обмеженою мірою.
Щоб написати суворий доказ, вам потрібно буде визначити всі умови регулярності та подбати про порядок помилок у розширеннях Тейлора. Ось короткий нарис аргументу.
Симетризована розбіжність Кульбека-Лейблера між двома щільністю і визначається якfg
Д [ ф, г] = ∫( f( x ) - g( x ) ) журнал( f( х )г( х )) dх.
Якщо у нас є сімейство густин, параметризоване по , тоθ = ( θ1, … , Θк)
D [ p (⋅∣ θ ) , p (⋅∣ θ +Δ θ ) ] = ∫( p ( x , ∣ θ ) - p ( x ∣ θ + Δ θ ) ) журнал( p ( x ∣ θ )p ( x ∣ θ + Δ θ ))гх,
в якому . Вводячи позначення
деяка проста алгебра дає
Використовуючи розширення Тейлора для природного логарифму, ми маємо
Δ θ = ( Δ θ1, … , Δ θк)Δ p ( x ∣ θ ) = p ( x ∣ θ ) - p ( x ∣ θ + Δ θ ),
D [ p (⋅∣ θ ) , p (⋅∣ θ + Δ θ ) ] = ∫Δ p ( x ∣ θ )p ( x ∣ θ )журнал( 1 + Δ p ( x ∣ θ )p ( x ∣ θ ))p(x∣θ)dx.
log(1+Δp(x∣θ)p(x∣θ))≈Δp(x∣θ)p(x∣θ),
і тому
Але
Звідси
в якому
D[p(⋅∣θ),p(⋅∣θ+Δθ)]≈∫(Δp(x∣θ)p(x∣θ))2p(x∣θ)dx.
Δp(x∣θ)p(x∣θ)≈1p(x∣θ)∑i=1k∂p(x∣θ)∂θiΔθi=∑i=1k∂logp(x∣θ)∂θiΔθi.
D [ p (⋅∣ θ ) , p (⋅∣ θ + Δ θ ) ] ≈ ∑i , j = 1кгi jΔ θiΔ θj,
гi j= ∫∂журналp ( x ∣ θ )∂θi∂журналp ( x ∣ θ )∂θjp ( x ∣ θ )гх.
Це оригінальний папір:
Джеффріс, Х. (1946). Інваріантна форма для попередньої ймовірності проблем оцінки. Зб. Королівський соц. Лондона, серія A, 186, 453–461.