Це може бути дурним питанням, але коли генерувати модель з обережністю та використовувати щось на кшталт LOOCVабо (навіть більше, до речі) LGOCV, яка користь від розбиття даних на поїзди та тестові набори, якщо це по суті те, що крос перехресної перевірки все одно?
Я прочитав деякі пов'язані з цим питання, і вони запропонували, що деякі методи перехресної перевірки (наприклад, те, що описано тут на сайті карети ) призначені для вибору функції . Але в моєму випадку я використовую randomForest( method = "rf") і kernlab( method = svmRadial), які не вказані в групі, яка намагається очистити прогнози.
Отже, моє питання полягає в тому, якщо я використовую щось подібне cross_val <- trainControl(method = "LGOCV", p = 0.8), чи не те саме, що тренуватися на 80% моїх даних, тестувати отриману модель на решті 20%, і робити це знову і знову, щоб отримати уявлення про те, наскільки добре модель працює?
Якщо так, чи є необхідність розділити мої дані на набори поїздів / тестів?
PS Я частково запитую, коли я веду моделі на емпірично сформованих прототипах DOE (думаю, що важкі товари, де ми налаштовуємо входи, а потім використовуємо методи тестування для вимірювання різних атрибутів про прототип).
Як такий, у мене немає величезного набору даних з великою кількістю рівнів, що перекриваються прогнозними показниками, для моделювання - ми часто проводимо одне випробування в кожній точці DOE, оскільки генерування даних у цьому випадку дороге. Таким чином, я хотів би використати всі дані, які я можу, для точної моделі, але хотів перевірити тут, що я не пропускаю чогось очевидного і складаю погану модель, не розбиваючи речі.
Редагувати: Відповідаючи на запитання @ topepo, я моделюю фізично виміряні атрибути сполуки на основі коригування хімічних речовин формули. Я не можу обговорити своє фактичне застосування, але я складу приклад на основі формулювання внутрішньої латексної фарби. Я веду розроблені експерименти, де ми змішуємо 4-5 хімічних речовин, можливо, граємо з% твердих речовин і кількість часу для нагрівання полімерного розчину для регулювання ступеня полімеризації.
Тоді ми можемо виміряти реологію, молекулярну масу, твердість лакофарбового покриття, водонепроникність тощо.
У нас є гідні репліки кількох змінних, але мало правдивих реплік у тому сенсі, що кожен рівень DOE був абсолютно однаковий. Загальний набір даних становить ~ 80 спостережень і, можливо, 4-5 є точними повторами. Ми провели 15 різних тестів, і можливо 5-6 з них було зроблено для кожного спостереження. Деякі відповіді містять 25-50% даних.
Звідси ми хотіли б моделювати вплив наших 7 прогнокторів на вихідні властивості, а потім оптимізувати для орієнтації на нові дизайнерські простори, які, швидше за все, нададуть бажані властивості.
(Звідси моє запитання ТУТ . Після того, як у мене є навчена модель, було б непогано зробити "зворотний" і подати бажані відповіді, щоб отримати найкращу здогадку на можливих рівнях введення, щоб спробувати далі).
data_set1, то що я вважаю кроком, виконаним LGOCVперехресною перевіркою? З мого читання я припускаю, що 1) caretповторює налаштування параметрів, data_set1а потім 2) фіксує ці парами фіксованим і 3) створює "підмодель", використовуючи параметри з №1 для кожного p = 0.8зразка data_set1і тестує прогнози на решту 0,2 для точності вимірювання . Це розумний підсумок?