Припустимо, ваша модель справді передбачає, що A має 40% шансів, а B - 60% шансів. За деяких обставин, можливо, ви хочете перетворити це в класифікацію, що відбудеться B (оскільки це швидше, ніж A). Після перетворення в класифікацію кожен прогноз є правильним чи неправильним, і існує ряд цікавих способів підрахування правильних і неправильних відповідей. Одне - пряма точність (відсоток правильних відповідей). Інші включають в себе точність і відгук або F-міра . Як уже згадували інші, ви можете подивитися на криву ROC . Крім того, ваш контекст може поставити конкретну матрицю витрат, яка винагороджує справжні позитиви інакше від справжніх негативів та / або карає помилкові позитиви по-різному від помилкових негативів.
Однак я не думаю, що це те, що ти насправді шукаєш. Якщо ви сказали, що B має 60% шансів на те, а я сказав, що це 99% шансів на те, що це трапиться, ми маємо дуже різні прогнози, хоча вони обидва будуть відображені в B у простій системі класифікації. Якщо замість цього станеться A, ви просто помиляєтесь, тоді як я дуже помиляюся, тому сподіваюся, що я отримаю більш жорстке покарання, ніж ви. Коли ваша модель фактично створює ймовірності, правило оцінювання є показником ефективності ваших прогнозів ймовірностей. Зокрема, ви, мабуть, хочете належного правила балу, тобто оцінка оптимізована для добре відкаліброваних результатів.
BS=1N∑t=1N(ft−ot)2
ftot
Звичайно, тип вибору правила вибору може залежати від типу події, який ви намагаєтесь передбачити. Однак це повинно дати вам кілька ідей для подальшого дослідження.
Я додам застереження, що незалежно від того, що ви робите, оцінюючи свою модель таким чином, пропоную вам переглянути свій показник на вибіркових даних (тобто на дані, які не використовуються для побудови вашої моделі). Це можна зробити за допомогою перехресної перевірки . Можливо, простіше ви можете побудувати свою модель на одному наборі даних, а потім оцінити її на іншому (будьте обережні, щоб не допустити, щоб умовиводи з вибіркових моделей не розтікалися на модельне моделювання).