Є багато - і те, що найкраще працює, залежить від даних. Існує також багато способів обману - наприклад, ви можете виконати калібрування ймовірності на виходах будь-якого класифікатора, який дає деяку схожість балу (тобто: крапковий добуток між вектором ваги та входом). Найпоширеніший приклад цього називається масштабуванням Платта.
Існує також питання форми основної моделі. Якщо ви маєте поліноміальну взаємодію зі своїми даними, то ванільна логістична регресія не зможе добре її моделювати. Але ви можете використовувати кернельну версію логістичної регресії, щоб модель краще відповідала даним. Зазвичай це збільшує "корисність" ймовірних результатів, оскільки ви також підвищуєте точність класифікатора.
Як правило, більшість моделей, які надають ймовірності, зазвичай використовують логістичну функцію, тому порівняти їх може бути важко. Це як правило, добре працює на практиці, байесівські мережі - це альтернатива. Naive Bayes просто робить занадто спрощеним припущення, що його ймовірність може бути будь-якою користю - і це легко спостерігається в будь-якому наборі даних досить розміру.
Зрештою, зазвичай простіше підвищити якість ваших оцінок ймовірностей, вибравши модель, яка може краще представляти дані. У цьому сенсі не має великого значення, як ви отримуєте ймовірності. Якщо ви зможете отримати 70% точність за допомогою логістичної регресії та 98% за допомогою SVM - тоді лише надання ймовірності "повної впевненості" лише зробить результати "кращими" більшістю методів оцінювання, навіть якщо вони насправді не є ймовірними (і тоді ви можете зробити калібрування, про яке я згадував раніше, зробити їх фактично кращими).
Це ж питання в контексті неможливості отримати точний класифікатор цікавіше, але я не впевнений, що хтось вивчав / порівнював у такому сценарії.