1
Чому байєсівська задня частина концентрується навколо мінімізації розбіжності KL?
Розглянемо байєсівську задню θ ∣ Xθ∣Х\theta\mid X. Асимптотично, його максимум відбувається при оцінці MLE , що просто збільшує ймовірність .θ^θ^\hat \thetaаргмінθfθ( X)аргмінθfθ(Х)\operatorname{argmin}_\theta\, f_\theta(X) Усі ці поняття - байесівські пріори, що збільшують ймовірність - звучать супер принципово і зовсім не довільно. Не видно колоди. Однак MLE мінімізує розбіжність KL між реальним …