Запитання з тегом «cross-validation»

Неодноразово утримуючи підмножини даних під час підгонки моделі, щоб кількісно оцінити продуктивність моделі на утриманих підмножинах даних.

11
Чи є якась причина віддавати перевагу AIC або BIC перед іншими?
AIC і BIC - це обидва методи оцінки відповідності моделі, що штрафується за кількістю оцінюваних параметрів. Наскільки я розумію, BIC карає моделі більше за вільні параметри, ніж AIC. Крім переваг, що ґрунтуються на строгості критеріїв, чи є інші причини віддати перевагу AIC перед BIC або навпаки?

6
Як вибрати модель прогнозування після перехресної перевірки k-кратної?
Мені цікаво, як вибрати передбачувану модель після того, як зробить перехресну перевірку K-кратну кількість. Це може бути незручно сформульовано, тому дозвольте мені пояснити більш докладно: щоразу, коли я запускаю перехресну перевірку K-кратну кількість, я використовую K підмножини даних тренувань і закінчую K різними моделями. Мені хотілося б знати, як вибрати …

5
Навчання з повним набором даних після перехресної перевірки?
Чи завжди хороша ідея тренуватися з повним набором даних після перехресної перевірки ? Інакше кажучи, чи нормально тренуватися з усіма зразками в моєму наборі даних і не можете перевірити, чи відповідає саме цей примір ? Деякі відомості про проблему: Скажіть, у мене є сімейство моделей, параметризованих . Скажіть також, що …

4
Вибір K у K-кратній перехресній валідації
Я використовую в кратної перехресної перевірки кілька разів зараз , щоб оцінити продуктивність деяких алгоритмів навчання, але я завжди був спантеличений про те , як я повинен вибрати значення .КKKKKKK Я часто бачив і використовував значення , але це здається мені абсолютно довільним, і тепер я просто використовую за звичкою, …

5
Різниці між перехресною валідацією та завантажувальною програмою для оцінки похибки прогнозування
Я хотів би, щоб ваші думки щодо відмінностей між перехресною валідацією та завантажувальною програмою оцінили помилку прогнозування. Чи працює краще для невеликих розмірів наборів даних або великих наборів даних?

3
Вкладена перехресна перевірка для вибору моделі
Як можна використовувати вкладені перехресні перевірки для вибору моделі ? З того, що я читаю в Інтернеті, вкладене резюме працює наступним чином: Існує внутрішній цикл резюме, де ми можемо провести пошук по сітці (наприклад, запустивши K-кратно для кожної доступної моделі, наприклад, комбінація гіперпараметрів / функцій) Є зовнішня петля CV, де …

7
Зміщення та відхилення в перехресній валідації "відхід-один-проти" до кратного перекладу
Як різні методи перехресної валідації порівнюють з точки зору дисперсії моделі та зміщення? Моє запитання частково мотивоване цією темою: Оптимальна кількість складок у кратній перехресній валідації: чи завжди рейтинг резюме найкращий вибір? KKKК. Відповідь наводить на думку, що моделі, засвоєні з перехресною валідацією «відхід один-один», мають більшу дисперсію, ніж ті, …


3
Вибір функції та перехресне підтвердження
Нещодавно я багато читав на цьому веб-сайті (@Aniko, @Dikran Marsupial, @Erik) та інших місцях про проблему пристосування, що виникає з перехресною валідацією - (Smialowski et al. 2010 Біоінформатика, Хасті, Елементи статистичного навчання). Припущення полягає в тому, що будь-який підбір контрольованих функцій (використовуючи кореляцію з мітками класів), виконаний поза оцінкою продуктивності …

6
Вибір особливостей для "остаточної" моделі при виконанні перехресної перевірки в машинному навчанні
Я трохи розгублений щодо вибору функцій та машинного навчання, і мені було цікаво, чи можете ви мені допомогти. У мене є набір даних мікромасив, який класифікується на дві групи та має 1000 функцій. Моя мета - отримати невелику кількість генів (мої особливості) (10-20) у підписі, які я теоретично зможу застосувати …

5
Використання k-кратної перехресної перевірки для вибору моделі часових рядів
Запитання: Я хочу бути впевненим у чомусь, чи просто використання перехресної валідації k із кратною послідовністю із часовими рядами чи це потрібно звернути особливу увагу, перш ніж її використовувати? Передумови: я моделюю часовий ряд на 6 років (із напівмарковним ланцюгом) із зразком даних кожні 5 хв. Для порівняння декількох моделей …

1
Як розділити набір даних для перехресної перевірки, кривої навчання та остаточного оцінювання?
Яка відповідна стратегія розподілу набору даних? Я прошу зворотний зв'язок на наступний підхід ( а нема на окремих параметрів , таких як test_sizeабо n_iter, але якщо я X, y, X_train, y_train, X_test, і y_testвідповідним чином і , якщо послідовність має сенс): (продовження цього прикладу з документації scikit-learn) 1. Завантажте набір …

4
Як налаштувати гіперпараметри дерев xgboost?
У мене є дані про незбалансований клас, і я хочу налаштувати гіперпараметри підсиленого тресу за допомогою xgboost. Запитання Чи є еквівалент gridsearchcv або randomsearchcv для xgboost? Якщо ні, то який рекомендований підхід до налаштування параметрів xgboost?

8
Як я можу допомогти гарантувати, що дані тестування не просочуються до даних про навчання?
Припустимо, у нас є хтось, який будує модель прогнозування, але хтось не обов'язково добре розбирається в правильних статистичних або машинних принципах навчання. Можливо, ми допомагаємо цій людині, коли вона навчається, або, можливо, вона використовує якийсь програмний пакет, для використання якого потрібні мінімальні знання. Тепер ця людина може цілком зрозуміти, що …

10
Помилка перевірки менше, ніж помилка тренування?
Тут і тут я знайшов два питання щодо цього питання, але поки немає очевидних відповідей чи пояснень. Я застосовую ту саму проблему, коли помилка перевірки менша, ніж помилка навчання в моїй нейронній мережі Convolution. Що це означає?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.