Щоб відповісти на @ ziggystar з точки зору машинного навчання жаргону: ідея методів агрегації завантажувальних програм (наприклад, випадкові ліси) полягає в тому, щоб підходити багато моделей з низьким ухилом, з високою дисперсією до даних, які мають певний елемент "випадковості" або "нестабільності". У випадку випадкових лісів нестабільність додається шляхом завантаження та вибору випадкового набору функцій для розділення кожного вузла дерева. Усереднення серед цих галасливих, але низьких ухилів дерева зменшує велику дисперсію будь-якого окремого дерева.
У той час як дерева регресії / класифікації є моделями "з низьким ухилом, з великою дисперсією", лінійні регресійні моделі, як правило, навпаки - "з великим зміщенням, низькою дисперсією". Таким чином, проблема, з якою часто стикаються лінійні моделі, - зменшення зміщення, а не зменшення дисперсії. Агрегація завантажувальної програми просто не робиться для цього.
Додатковою проблемою є те, що завантажувальна програма може не забезпечити достатньої кількості "випадковості" чи "нестабільності" в типовій лінійній моделі. Я б очікував, що дерево регресії буде більш чутливим до випадковості зразків завантаження, оскільки кожен лист містить лише кілька точок даних. Крім того, дерева регресії можна стохастично вирощувати, розділяючи дерево на випадковий підмножина змінних на кожному вузлі. Дивіться це попереднє питання, чому це важливо: Чому випадкові ліси розбиті на основі m випадкових ознак?
Все, що говорити, ви, звичайно, можете використовувати завантажувальний механізм завантаження на лінійних моделях [LINK] , і це може бути дуже корисним у певних контекстах. Однак мотивація сильно відрізняється від методики агрегування завантажувальної програми.
a_0 + a_1 * x_1 + ... + a_d * x_d
, отримана усереднена лінійна функція (після агрегування завантажувальної програми) все ще має таку ж лінійну функціональну форму, як та, з якої ви починаєте (тобто "базовий учень").