Як можна вибрати належну кількість параметрів генетичного алгоритму для моделювання заданої системи?
Наприклад, скажіть, що ви хочете оптимізувати виробництво автомобілів, і у вас є 1000 вимірювань погодинної ефективності при різних завданнях для кожного з 1000 різних співробітників. Отже, у вас є 1 000 000 точок даних. Більшість із них, ймовірно, слабко співвідносяться із загальною ефективністю вашої фабрики, але не настільки слабко, що можна сказати, що вони не мають відношення до статистичної впевненості. Як ви займаєтеся вибором вхідних даних для свого GA, щоб у вас не було 1 000 000+ ступенів свободи, що призводить до дуже повільної конвергенції або взагалі відсутності конвергенції?
Зокрема, які алгоритми можна використати для попереднього вибору або вибіркового усунення функцій?
Один підхід , який я використовував себе в цьому сценарії еволюціонувати вибір параметрів сам, так що я міг би мати батьків , як {a,b,c}
, {b,d,e,q,x,y,z}
і так далі. Тоді я б мутував дітей, щоб додати або відкинути функції. Це добре працює для кількох десятків функцій. Але проблема в тому, що вона неефективна, якщо є велика кількість ступенів свободи. У такому випадку ви переглядаєте 10^n
комбінації (у прикладі вище 10^1,000,000
), що робить деяку попередню фільтрацію функцій критичною для отримання будь-якої корисної продуктивності.