Я реалізую алгоритм Naive Bayes для категоризації тексту з лаплакійським згладжуванням. Проблема, яку я маю, полягає в тому, що ймовірність наближається до нуля, тому що я множу багато дрібних дробів. Тому ймовірність зрештою приводить до нуля. Це тому, що в документах та навчальних наборах є кілька слів.
Через це я не в змозі класифікувати тексти. Чи є спосіб я подолати цю проблему? Чи роблю я щось не так у своїй реалізації?
... Ви могли уникнути арифметики з плаваючою комою.
msdn.microsoft.com/en-us/magazine/jj891056.aspx Тут ви знайдете просту відповідь.
—
Рошан Мехта