Я хотів би порівняти два різних класифікатори для проблеми класифікації багатокласового тексту, які використовують великі набори навчальних даних. Я сумніваюся, чи варто використовувати криві ROC або криві навчання для порівняння двох класифікаторів.
З одного боку, криві навчання корисні для визначення розміру навчального набору даних, оскільки ви можете знайти розмір набору даних, на якому класифікатор припиняє навчання (і, можливо, деградує). Тож найкращим класифікатором у цьому випадку може бути той, хто досягає найвищої точності з найменшим розміром набору даних.
З іншого боку, криві ROC дозволяють вам знайти точку з правильним компромісом між чутливістю / специфічністю. Найкращий класифікатор у цьому випадку - це лише той, який ближче до верхньої лівої частини, з найвищим TPR для будь-якого FPR.
Чи варто використовувати обидва методи оцінки? Чи можливий метод з кращою кривою навчання мати гіршу криву ROC, і навпаки?