Це питання дає кількісне визначення перехресної ентропії з точки зору її формули.
Я шукаю більш понятне визначення, wikipedia говорить:
В теорії інформації перехресна ентропія між двома розподілами ймовірностей вимірює середню кількість бітів, необхідних для ідентифікації події з набору можливостей, якщо використовується схема кодування на основі заданого розподілу ймовірностей q, а не "істинного" розподілу p .
Я наголосив на тій частині, яка створює мені проблеми в розумінні цього. Я хотів би приємного визначення, яке не потребує окремого (попереднього) розуміння ентропії.