Шукали високий і низький рівень і не змогли з’ясувати, що означає або означає AUC, як це стосується прогнозування.
Шукали високий і низький рівень і не змогли з’ясувати, що означає або означає AUC, як це стосується прогнозування.
Відповіді:
AUC використовується в більшості випадків для позначення AUROC, що є поганою практикою, оскільки, як зазначив Марк Клаесен, AUC неоднозначний (може бути будь-яка крива), тоді як AUROC - ні.
AUROC має кілька рівнозначних тлумачень :
Подальше: як отримати імовірнісну інтерпретацію AUROC?
Припустимо, у нас є ймовірнісний, бінарний класифікатор, такий як логістична регресія.
Перш ніж представити криву ROC (= Характерна характеристика кривої приймача), необхідно зрозуміти поняття матриці плутанини . Коли ми робимо двійкове прогнозування, може бути 4 типи результатів:
Для отримання матриці плутанини ми перебираємо всі прогнози, зроблені моделлю, і підраховуємо, скільки разів виникає кожен із цих 4 типів результатів:
У цьому прикладі матриці плутанини серед 50 точок даних, які класифікуються, 45 правильно класифіковані, а 5 неправильно класифіковані.
Оскільки для порівняння двох різних моделей часто зручніше мати одну метрику, а не декілька, ми обчислюємо дві метрики з матриці плутанини, яку згодом об'єднаємо в одну:
На наступному малюнку графічно зображено AUROC:
На цьому малюнку синя зона відповідає області під кривою експлуатаційної характеристики приймача (AUROC). Пунктирною лінією по діагоналі подаємо криву ROC випадкового предиктора: вона має AUROC 0,5. Випадковий предиктор зазвичай використовується в якості базової лінії, щоб визначити, чи корисна модель.
Якщо ви хочете отримати досвід з перших рук:
Хоча я трохи спізнююся на вечірку, але ось мої 5 копійок. @FranckDernoncourt (+1) вже згадував можливі інтерпретації AUC ROC, і моя улюблена перша в його списку (я використовую різні формулювання, але це те саме):
Розглянемо цей приклад (auc = 0,68):
Спробуємо їх моделювати: намалюйте випадкові позитивні та негативні приклади, а потім обчисліть частку випадків, коли позитивні результати мають більший бал, ніж негативні
cls = c('P', 'P', 'N', 'P', 'P', 'P', 'N', 'N', 'P', 'N', 'P',
'N', 'P', 'N', 'N', 'N', 'P', 'N', 'P', 'N')
score = c(0.9, 0.8, 0.7, 0.6, 0.55, 0.51, 0.49, 0.43, 0.42, 0.39, 0.33,
0.31, 0.23, 0.22, 0.19, 0.15, 0.12, 0.11, 0.04, 0.01)
pos = score[cls == 'P']
neg = score[cls == 'N']
set.seed(14)
p = replicate(50000, sample(pos, size=1) > sample(neg, size=1))
mean(p)
І отримуємо 0,67926. Зовсім близько, чи не так?
До речі, в RI зазвичай використовують пакет ROCR для малювання кривих ROC та обчислення AUC.
library('ROCR')
pred = prediction(score, cls)
roc = performance(pred, "tpr", "fpr")
plot(roc, lwd=2, colorize=TRUE)
lines(x=c(0, 1), y=c(0, 1), col="black", lwd=1)
auc = performance(pred, "auc")
auc = unlist(auc@y.values)
auc
Важливі міркування не включені до жодної з цих дискусій. Розглянуті вище процедури пропонують невідповідні пороги та використовують неправильні правила (пропорції) балів за точністю, які оптимізуються шляхом вибору неправильних функцій та надання їм неправильних ваг.
Дихотомізація безперервних прогнозів летить на тлі оптимальної теорії рішення. Криві ROC не дають зрозумілих даних. Вони стали обов'язковими, не досліджуючи переваги дослідників. У них дуже велике співвідношення чорнила: інформація.
Оптимальні рішення не розглядають "позитивні" та "негативні", а оціночну ймовірність результату. Функція корисності / витрат / втрат, яка не грає ніякої ролі в будівництві ROC, отже, непотрібність ROC, використовується для переведення оцінки ризику в оптимальне (наприклад, найменший очікуваний збиток) рішення.
Метою статистичної моделі часто є прогнозування, і аналітик повинен часто зупинятися на цьому, оскільки аналітик може не знати функції втрат. Основними компонентами прогнозування для неупередженої перевірки (наприклад, використання завантажувальної стрічки) є передбачувальна дискримінація (один напівдобрий спосіб вимірювання цього - це вірогідність узгодження, яка може дорівнювати площі під ROC, але її можна легше зрозуміти, якщо ви не не намалюйте ROC) і калібрувальну криву. Перевірка калібрування дійсно дуже потрібна, якщо ви використовуєте прогнози в абсолютній шкалі.
Додаткову інформацію див. У розділі Інформаційні втрати у біостатистиці біомедичних досліджень та інших розділах.
AUC - це скорочення для області під кривою . Він використовується в класифікаційному аналізі для того, щоб визначити, яка з використовуваних моделей прогнозує класи найкраще.
Прикладом його застосування є криві ROC. Тут справжні позитивні ставки будуються проти хибнопозитивних ставок. Приклад наведено нижче. Чим ближче AUC для моделі дорівнює 1, тим вона краще. Отже, моделі з більш високими AUC мають перевагу перед моделями з нижчим AUC.
Зверніть увагу, існують також інші методи, ніж криві ROC, але вони також пов'язані з справжніми позитивними та помилковими позитивними показниками, наприклад, точність відкликання, криві F1-оцінки або Лоренца.
auc
тегу: stats.stackexchange.com/questions/tagged/auc