Насправді це досить просто: класифікатор Байєса вибирає клас, який має найбільшу апостеріорну ймовірність виникнення (так звана максимальна апостеріорна оцінка ). Функція втрати 0-1 карає неправильної класифікації, тобто присвоює найменші втрати рішення, яке має найбільшу кількість правильних класифікацій. Тож в обох випадках ми говоримо про оцінку режиму . Нагадаємо, що режим є найпоширенішим значенням у наборі даних або найбільш ймовірним значенням , тому як максимізація задньої ймовірності, так і мінімізація втрати 0-1 призводить до оцінки режиму.
Якщо вам потрібен офіційний доказ, це наведено у статті " Вступ до теорії рішень Байєса" Анжели Дж. Ю:
Функція бінарних втрат 0-1 має такий вигляд:
лх( с^, с∗) = 1 - δс^с∗= { 10якщос^≠ с∗інакше
де - функція дельти Кронекера. (...) очікуваний збиток:δ
Lх( с^)= ∑с∗лх( с^, с∗)П( s = s∗∣ x )= ∑с∗( 1 - δс^с∗)П( s = s∗∣ x )= ∑с∗П( s = s∗∣ x ) dс∗- ∑с∗δс^с∗П( s = s∗∣ x )= 1 - Р( s = s∗∣ x )
Це справедливо для максимальної післяорієнтованої оцінки в цілому. Отже, якщо ви знаєте задній розподіл, то припускаючи втрату 0-1, найбільш оптимальним правилом класифікації є прийняття режиму заднього розподілу, ми називаємо це оптимальним класифікатором Байєса . У реальному житті ми зазвичай не знаємо заднього розподілу, а краще оцінюємо його. Класифікатор Naive Bayes наближає оптимальний класифікатор, дивлячись на емпіричний розподіл та припускаючи незалежність прогнозів. Тож наївний класифікатор Байєса сам по собі не є оптимальним, але він наближає оптимальне рішення. У вашому запитанні ви, схоже, плутаєте ці дві речі.