Поріг рішення створює компроміс між кількістю позитивних результатів, які ви прогнозуєте, і кількістю негативів, які ви прогнозуєте, - оскільки, тавтологічно, збільшення порогу рішення зменшить кількість позитивних результатів, які ви прогнозуєте, і збільшить кількість негативів, які ви прогнозуєте
Поріг рішення не є гіпер-параметром у сенсі настройки моделі, оскільки він не змінює гнучкість моделі.
C(наприклад, коефіцієнти логістичної регресії будуть різними), а коригування порогу може робити лише дві речі: торгувати TP для FN і FP для TN. Однак модель залишається такою ж, оскільки це не змінює коефіцієнтів. (Те ж саме стосується моделей, які не мають коефіцієнтів, наприклад, випадкових лісів: зміна порогу нічого не змінює щодо дерев.) Отже, у вузькому сенсі ви правильні, що знаходите найкращий компроміс серед помилок "налаштування", але ви помиляєтесь, думаючи, що зміна порогу пов'язана з іншими параметрами моделі так, як оптимізовано GridSearchCV
.
Заявлений іншим способом, зміна порогу прийняття рішення відображає вибір з вашого боку про те, скільки помилкових позитивів та помилкових негативів ви хочете мати. Подумайте про гіпотетичне, що ви встановлюєте поріг рішення абсолютно неправдоподібним значенням, як -1. Усі ймовірності невід'ємні, тому з цим порогом ви передбачите "позитивне" для кожного спостереження. З певної точки зору, це чудово, адже ваш хибний негативний показник - 0,0. Однак ваш хибний позитивний показник також знаходиться на границі 1,0, тому в цьому сенсі ваш вибір порогу в -1 жахливий.
Ідеально, звичайно, мати TPR 1,0 та FPR 0,0 та FNR 0,0. Але це зазвичай неможливо в реальних програмах, тому питання стає тоді "скільки FPR я готовий прийняти за скільки TPR?" І це мотивація кривих roc .