Це може бути дурним питанням, але коли генерувати модель з обережністю та використовувати щось на кшталт LOOCV
або (навіть більше, до речі) LGOCV
, яка користь від розбиття даних на поїзди та тестові набори, якщо це по суті те, що крос перехресної перевірки все одно?
Я прочитав деякі пов'язані з цим питання, і вони запропонували, що деякі методи перехресної перевірки (наприклад, те, що описано тут на сайті карети ) призначені для вибору функції . Але в моєму випадку я використовую randomForest
( method = "rf"
) і kernlab
( method = svmRadial
), які не вказані в групі, яка намагається очистити прогнози.
Отже, моє питання полягає в тому, якщо я використовую щось подібне cross_val <- trainControl(method = "LGOCV", p = 0.8)
, чи не те саме, що тренуватися на 80% моїх даних, тестувати отриману модель на решті 20%, і робити це знову і знову, щоб отримати уявлення про те, наскільки добре модель працює?
Якщо так, чи є необхідність розділити мої дані на набори поїздів / тестів?
PS Я частково запитую, коли я веду моделі на емпірично сформованих прототипах DOE (думаю, що важкі товари, де ми налаштовуємо входи, а потім використовуємо методи тестування для вимірювання різних атрибутів про прототип).
Як такий, у мене немає величезного набору даних з великою кількістю рівнів, що перекриваються прогнозними показниками, для моделювання - ми часто проводимо одне випробування в кожній точці DOE, оскільки генерування даних у цьому випадку дороге. Таким чином, я хотів би використати всі дані, які я можу, для точної моделі, але хотів перевірити тут, що я не пропускаю чогось очевидного і складаю погану модель, не розбиваючи речі.
Редагувати: Відповідаючи на запитання @ topepo, я моделюю фізично виміряні атрибути сполуки на основі коригування хімічних речовин формули. Я не можу обговорити своє фактичне застосування, але я складу приклад на основі формулювання внутрішньої латексної фарби. Я веду розроблені експерименти, де ми змішуємо 4-5 хімічних речовин, можливо, граємо з% твердих речовин і кількість часу для нагрівання полімерного розчину для регулювання ступеня полімеризації.
Тоді ми можемо виміряти реологію, молекулярну масу, твердість лакофарбового покриття, водонепроникність тощо.
У нас є гідні репліки кількох змінних, але мало правдивих реплік у тому сенсі, що кожен рівень DOE був абсолютно однаковий. Загальний набір даних становить ~ 80 спостережень і, можливо, 4-5 є точними повторами. Ми провели 15 різних тестів, і можливо 5-6 з них було зроблено для кожного спостереження. Деякі відповіді містять 25-50% даних.
Звідси ми хотіли б моделювати вплив наших 7 прогнокторів на вихідні властивості, а потім оптимізувати для орієнтації на нові дизайнерські простори, які, швидше за все, нададуть бажані властивості.
(Звідси моє запитання ТУТ . Після того, як у мене є навчена модель, було б непогано зробити "зворотний" і подати бажані відповіді, щоб отримати найкращу здогадку на можливих рівнях введення, щоб спробувати далі).
data_set1
, то що я вважаю кроком, виконаним LGOCV
перехресною перевіркою? З мого читання я припускаю, що 1) caret
повторює налаштування параметрів, data_set1
а потім 2) фіксує ці парами фіксованим і 3) створює "підмодель", використовуючи параметри з №1 для кожного p = 0.8
зразка data_set1
і тестує прогнози на решту 0,2 для точності вимірювання . Це розумний підсумок?