На сторінці Scikit Learn щодо вибору моделі згадується використання вкладеної перехресної перевірки:
>>> clf = GridSearchCV(estimator=svc, param_grid=dict(gamma=gammas), ... n_jobs=-1) >>> cross_validation.cross_val_score(clf, X_digits, y_digits)
Дві петлі перехресної перевірки виконуються паралельно: один за допомогою оцінювача GridSearchCV для встановлення гамми, а другий через cross_val_score для вимірювання показників прогнозування оцінювача. Отримані результати є неупередженими оцінками оцінки прогнозування за новими даними.
Наскільки я розумію, я clf.fit
буду використовувати перехресну перевірку на самому собі, щоб визначити найкращу гаму. У такому випадку, чому нам потрібно використовувати вкладений реєстр, як зазначено вище? У примітці зазначається, що вкладений реєстр виробляє "неупереджені оцінки" оцінки прогнозу. Чи не так це clf.fit
?
Крім того, мені не вдалося отримати найкращі оцінки за програмою clf cross_validation.cross_val_score(clf, X_digits, y_digits)
. Чи можете ви порадити, як це можна зробити?