Я порівнюю два розподіли з дивергенцією KL, що повертає мені нестандартне число, яке, відповідно до того, що я читав про цей захід, є кількістю інформації, необхідної для перетворення однієї гіпотези в іншу. У мене є два питання:
a) Чи існує спосіб кількісної оцінки розбіжності KL, щоб вона мала більш змістовну інтерпретацію, наприклад, як розмір ефекту або R ^ 2? Будь-яка форма стандартизації?
b) У R при використанні KLdiv (пакет flexmix) можна встановити значення 'esp' (стандартний esp = 1e-4), який встановлює всі точки, менші від esp, до певного стандарту, щоб забезпечити числову стабільність. Я грав з різними значеннями esp, і для мого набору даних я отримую все більшу дивергенцію KL, тим меншу кількість, яку я вибираю. Що відбувається? Я б очікував, що чим менше esp, тим надійнішими повинні бути результати, оскільки вони дозволяють більше "реальних цінностей" стати частиною статистики. Ні? Я повинен змінити esp, оскільки він інакше не обчислює статистику, а просто відображається як NA у таблиці результатів ...