Я часто чую про оцінку ефективності класифікаційної моделі, проводячи тестовий набір і треную модель на навчальному наборі. Потім створимо 2 вектори, один для передбачуваних значень і один для справжніх значень. Очевидно, що порівняння дозволяє судити про ефективність моделі за її прогнозованою силою, використовуючи такі речі, як F-Score, Kappa Statistic, Precision & Recall, ROC-криві тощо.
Як це порівнюється з оцінкою числового прогнозування, як регресія? Я б припустив, що ви можете тренувати модель регресії на навчальному наборі, використовувати її для прогнозування значень, а потім порівнювати ці передбачувані значення з справжніми значеннями, що стоять у тестовому наборі. Очевидно, що показники ефективності повинні бути різними, оскільки це не завдання класифікації. Звичайні залишки та статистика є очевидними заходами, але чи існують більше / кращі способи оцінити ефективність для регресійних моделей? Здається, класифікація має дуже багато варіантів, але регресія залишається для R 2 та залишків.