У мене є дані з 2-класовим маркуванням, за якими я здійснюю класифікацію, використовуючи кілька класифікаторів. А набори даних добре збалансовані. Оцінюючи ефективність класифікаторів, я повинен враховувати, наскільки точний класифікатор у визначенні не тільки справжніх позитивних, але й справжніх негативів. Тому, якщо я буду використовувати точність, і якщо класифікатор схильний до позитивів і класифікує все як позитивне, я отримаю близько 50% точності, навіть якщо це не вдалося класифікувати будь-які справжні негативи. Це властивість поширюється на точність та нагадування, оскільки вони зосереджені лише на одному класі, а в свою чергу - на F1-бал. (Це я розумію навіть з цієї роботи, наприклад, " Поза межами точності, показника F та ROC: сім'я дискримінантних заходів для оцінки ефективності ").
Тому я можу використовувати чутливість та специфічність (TPR та TNR), щоб побачити, як виконується класифікатор для кожного класу, де я прагну максимізувати ці значення.
Моє запитання полягає в тому, що я шукаю міру, яка поєднує обидві ці цінності в одну змістовну міру . Я переглянув заходи, передбачені в цьому документі, але виявив, що це нетривіально. І виходячи з свого розуміння, мені було цікаво, чому ми не можемо застосувати щось на зразок F-балу, але замість точності та нагадування я б використовував чутливість та специфічність? Тож формула була б