(Примітка. Я змінив ваш ξ до х.)
Для випадкової величини Х з щільністю p, якщо у вас є обмеження
∫Гi( х )p ( x )гх =ci,
для
i = 1 , … , n, максимальна щільність ентропії -
p0( Х ) = ехр(∑i = 1наiГi( х ) ),
де
аiвизначаються з
ciі, і
А є постійною нормалізацією.
У цьому контексті наближення Гаусса ("майже-гауссіантність") означає дві речі:
1) Ви приймаєте запровадити два нові обмеження: середнє значення Х є 0 і дисперсія є 1 (сказати);
2) Відповідне аn+2 (див. нижче) набагато більший за інші аi's.
Ці додаткові обмеження представлені як
Гn + 1( x ) = x,cn + 1= 0,
Гn + 2( х ) =х2,cn + 2= 1,
врожайний
p0( Х ) = ехр(аn + 2х2+аn + 1х +∑i = 1наiГi( х ) ),
який можна переписати як (просто "додати нуль" до експонента)
p0( Х ) = ехр(х22-х22+аn + 2х2+аn + 1х +∑i = 1наiГi( х ) ),
що веде до того, що ви хочете:
p0( х ) =А'φ ( х ) ехр(аn + 1х + (аn + 2+12)х2+∑i = 1наiГi( х ) );
готовий бути Тейлором розширеним (використовуючи другу умову наближення Гаусса).
Робимо наближення, як фізик (це означає, що нам не байдуже порядок терміна помилки), використовуючи досвід( t ) ≈ 1 + t, маємо приблизну щільність
p0( x ) ≈А'ϕ ( x ) ( 1 +аn + 1х + (аn + 2+12)х2+∑i = 1наiГi( х ) ).
Для закінчення ми маємо визначитися
А' та значення
аi's. Це робиться, накладаючи умови
∫p0( х )гх = 1,∫хp0( х )гx = 0,∫х2p0( х )гх = 1
∫Гi( х )p0( х )гх =ci,i = 1 , … , n,
отримати систему рівнянь, рішення якої дає
А' і
аi's.
Без встановлення додаткових умов на Гi's, я не вірю, що є просте рішення у закритому вигляді.
П. С. Мухаммед під час чату уточнив, що з додатковими умовами ортогональності для ГiМи можемо вирішити систему.