Дізнаючись про Gradient Boosting, я не чув про обмеження щодо властивостей "слабкого класифікатора", який метод використовує для побудови та ансамблю моделі. Однак я не міг уявити додаток ГБ, що використовує лінійну регресію, і насправді, коли я виконував деякі тести - це не працює. Я випробовував найбільш стандартний підхід з градієнтом суми квадратних залишків і додав наступні моделі разом.
Очевидна проблема полягає в тому, що залишки першої моделі заповнюються таким чином, що насправді немає регресійної лінії, яка б більше не підходила. Моє ще одне зауваження полягає в тому, що сума наступних лінійних регресійних моделей може бути представлена як єдиною регресійною моделлю (додаючи всі перехоплення та відповідні коефіцієнти), тому я не можу уявити, як це могло б коли-небудь покращити модель. Останнє зауваження полягає в тому, що лінійна регресія (найбільш типовий підхід) використовує суму квадратичних залишків як функцію втрат - ту, що і GB.
Я також думав про зниження рівня навчання або використання лише підмножини прогнозів для кожної ітерації, але це все одно може бути підсумоване до єдиного представлення моделі, в кінцевому підсумку, тому я думаю, що це не принесе жодного покращення.
Що я тут пропускаю? Чи лінійна регресія якось недоцільна для використання з градієнтним підвищенням? Це тому, що лінійна регресія використовує суму квадратичних залишків як функцію втрат? Чи є якісь обмеження для слабких прогнозів, щоб їх можна було застосувати до підвищення рівня градієнта?