Прогноз Naive Bayes робить свої прогнози, використовуючи цю формулу:
де - нормалізуючий фактор. Для цього потрібно оцінити параметри з даних. Якщо ми робимо це з -smoothing, то отримуємо оцінку
де є можливі значення для . Я з цим добре. Однак для попереднього ми маємо
де в наборі даних є прикладів. Чому ми також не згладжуємо попереднє? Або , скоріше, у нас гладкі до? Якщо так, то який згладжуючий параметр ми обираємо? Здається, трохи нерозумно також вибрати , оскільки ми робимо інший розрахунок. Чи є консенсус? Або це не має великого значення?