Тут @gung посилається на правило .632+. Швидкий пошук в Google не дає простий для розуміння відповіді на те, що означає це правило та з якою метою воно використовується. Хтось, будь ласка, з’ясує правило .632+?
Тут @gung посилається на правило .632+. Швидкий пошук в Google не дає простий для розуміння відповіді на те, що означає це правило та з якою метою воно використовується. Хтось, будь ласка, з’ясує правило .632+?
Відповіді:
Я дістанусь до оцінювача 0,632, але це буде дещо тривалий розвиток:
Припустимо, ми хочемо передбачити з за допомогою функції , де може залежати від деяких параметрів, які оцінюються за допомогою даних , наприклад,
Наївна оцінка помилки прогнозування - де - деяка функція втрати, наприклад, квадратна втрата помилки. Це часто називають помилкою навчання. Efron та ін. називає це очевидною швидкістю помилок або коефіцієнтом заміни. Це не дуже добре, оскільки ми використовуємо наші дані щоб відповідати . Це призводить до зміщення зміщення вниз. Ви хочете знати , наскільки добре ваша модель робить передбачення нових значень.
Часто ми використовуємо перехресну валідацію як простий спосіб оцінити очікувану помилку передбачення додаткової вибірки (наскільки добре наша модель робить дані не в нашому навчальному наборі?).
Популярний спосіб зробити це - зробити кратну перехресну перевірку. Розподіліть свої дані на групи (наприклад, 10). Для кожної групи встановіть свою модель на інші групи і протестуйте її на й групі. Наша помилкова перевірка додаткової вибірки прогнозування - це лише середня де - деяка функція індексу, яка вказує на розділ, якому призначено спостереження , а - передбачуване значення використанням даних, що не є в наборі th.
Ця оцінка приблизно несмещенная для істинної помилки передбачення , коли і має велику дисперсію , і є більш дорогим в обчислювальному відношенні для збільшення . Тож ми ще раз бачимо компроміс-зміну компромісу під час гри.
Замість перехресної перевірки ми могли б скористатися завантажувальним інструментом для оцінки похибки прогнозування додаткової вибірки. Переустановка завантажувальної програми може бути використана для оцінки розподілу вибірки будь-якої статистики. Якщо наші дані тренінгу , то можна подумати про те, щоб взяти з цього набору зразки завантажувальної машини (із заміною) де кожен - це набір з вибірок. Тепер ми можемо використовувати наші зразки завантаження для оцінки помилки передбачення додаткової вибірки: де - передбачуване значення при від моделі, придатної до
Однак якщо у нас є функція прогнозування надмірно надмірного рівня (тобто ), навіть оцінювач .632 буде зміщений вниз. Оцінювач .632+ призначений для менш упередженого компромісу між та . з де - рівень помилки без інформації, оцінюється шляхом оцінки моделі прогнозування для всіх можливих комбінацій цілі та предиктори .
Тут вимірює відносну норму перевищення. Якщо немає перевищення (R = 0, коли ) це дорівнює оцінці .632.
Більше інформації ви знайдете у розділі 3 цього 1 документа. Але підсумовуючи, якщо ви називаєте вибіркою з чисел із намальованою випадковим чином і із заміною, містить в середньому приблизно унікальних елементів.
Міркування такі. Ми заповнюємо вибіркою разів (випадковим чином і із заміною) від . Розглянемо конкретний індекс .
Тоді:
і
і це правда (інтуїтивно, оскільки ми проводимо вибірку із заміною, ймовірності не залежать від )
таким чином
Ви також можете провести це невелике моделювання, щоб емпірично перевірити якість наближення (що залежить від ):
n <- 100
fx01 <- function(ll,n){
a1 <- sample(1:n, n, replace=TRUE)
length(unique(a1))/n
}
b1 <- c(lapply(1:1000,fx01,n=100), recursive=TRUE)
mean(b1)
1. Бредлі Ефрон та Роберт Тібширані (1997). Удосконалення щодо перехресної перевірки: метод завантаження .632+ . Журнал Американської статистичної асоціації , Vol. 92, № 438, стор 548--560.
На мій досвід, в основному на основі моделювання, варіанти завантажувальних програм 0,632 та 0,632+ потрібні були лише через серйозні проблеми, спричинені використанням неправильного правила оцінювання точності, а саме пропорції, "правильно класифікованої". Якщо ви використовуєте правильні (наприклад, на основі відхилення бали чи Brier) або напівправильні (наприклад, -index = AUROC) правила балів, стандартний завантажувальний оптимізм Efron-Gong працює чудово.
Ці відповіді дуже корисні. Я не міг знайти спосіб продемонструвати це математикою, тому я написав код Python, який працює досить добре:
from numpy import mean
from numpy.random import choice
N = 3000
variables = range(N)
num_loop = 1000
# Proportion of remaining variables
p_var = []
for i in range(num_loop):
set_var = set(choice(variables, N))
p=len(set_var)/float(N)
if i%50==0:
print "value for ", i, " iteration ", "p = ",p
p_var.append(p)
print "Estimator of the proportion of remaining variables, ", mean(p_var)