Випадковий ліс справляється з цим досить добре, див. Чи можливий / практичний випадковий ліс з кількома виходами? або scikit вивчити документацію . Я думаю, що ГБМ або будь-який метод на основі дерева може бути адаптований аналогічно.
Більш загально, коли ви запускаєте будь-який алгоритм навчання, що мінімізує бал, ви зазвичай працюєте над мінімізацією яка є одновимірною. Але ви можете вказати будь-яку цільову функцію. Якщо ви працювали над (двовимірним) прогнозуванням позиції, був би хорошим показником.∑i( сi- уi)2∑i( у^i- уi)2+ ( х^i- хi)2
Якщо у вас змішаний тип (класифікація та регресія), то для визначення цільової функції, ймовірно, потрібно буде вказати цільову функцію, яка надає більшої ваги деяким цілям, ніж інші: яке масштабування ви застосовуєте для постійних відповідей? Яку втрату ви застосовуєте до пропущених класифікацій?
Щодо подальшого академічного читання,
Вікіпедія Структурованого навчання SVM
Одночасне використання вихідних та цільових структур для регресії з декількома виходами
Метод вибору орієнтиру для прогнозування декількох вихідних даних
(стосується величин, що залежать від розміру)