На мою думку, це суб’єктивно та проблематично. Ви повинні використовувати все, що є найважливішим фактором у вашій свідомості, як рушійну метрику, оскільки це може прийняти ваші рішення щодо того, як змінити модель, щоб бути більш зосередженою.
L1
Наприклад, якщо ви повідомляєте F1-бал у своєму звіті / своєму начальнику тощо (і припускаючи, що це саме їх насправді хвилює), то використання цього показника може мати найбільш сенс. F1-рахунок, наприклад, приймає точність і згадати до уваги те , що описує взаємозв'язок між більше двох дрібнозернистих метрик.
Якщо об'єднати ці речі разом, обчислення результатів, окрім звичайних втрат, може бути приємним для огляду та побачити, як оптимізується ваш остаточний показник у ході навчальних ітерацій. Ці відносини, можливо, можуть дати вам більш глибоке розуміння проблеми,
Зазвичай найкраще спробувати кілька варіантів, однак оптимізація втрат під час перевірки може дати можливість навчанню тривати довше, що в кінцевому підсумку також може призвести до найкращого показника F1 . Точність і відкликання можуть коливатися навколо деяких місцевих мінімумів, створюючи майже статичний показник F1 - так ви припините тренуватися. Якби ви оптимізували чисті втрати, можливо, ви зафіксували достатньо коливання втрат, щоб ви могли довше тренуватися.
cross_entropy
втрата є більш кращим кандидатом, ніжMSE
абоMAE
. Ознайомтесь із розділом підсумкової роботи цієї статті та у цій публікації про статистику .