Я намагаюся вирішити регресійну задачу. Я з’ясував, що 3 моделі чудово працюють для різних підмножини даних: LassoLARS, SVR та Gradient Tree Boosting. Я помітив, що коли я роблю прогнози, використовуючи всі ці 3 моделі, а потім складаю таблицю «справжнього виходу» та результатів 3 моїх моделей, я бачу, що щоразу принаймні одна з моделей дійсно близька до справжнього результату, хоча 2 інші може бути відносно далеко.
Коли я обчислюю мінімально можливу помилку (якщо я беру прогнозування від «найкращого» прогноктора для кожного тестового прикладу), я отримую помилку, значно меншу, ніж помилка будь-якої моделі. Тож я подумав про те, щоб спробувати поєднати передбачення з цих 3 різних моделей у якийсь ансамбль. Питання в тому, як це зробити правильно? Всі мої 3 моделі будуються та налаштовуються за допомогою scikit-learn, чи передбачений якийсь метод, який можна використовувати для упаковки моделей в ансамбль? Проблема тут полягає в тому, що я не хочу просто середні прогнози для всіх трьох моделей, я хочу це зробити з зважуванням, де зважування слід визначати на основі властивостей конкретного прикладу.
Навіть якщо scikit-learn не забезпечує такої функціональності, було б добре, якщо хтось знає, як вирішити цю задачу - з'ясувати зважування кожної моделі для кожного прикладу в даних. Я думаю, що це може зробити окремий регресор, побудований на вершині всіх цих трьох моделей, який спробує вивести оптимальні ваги для кожної з 3 моделей, але я не впевнений, чи це найкращий спосіб зробити це.