Баггінг - це покоління декількох предикторів, яке працює так само симпатично, як і єдиний провісник. Випадання - це техніка, яка привчає нейронні мережі до порівняння всіх можливих підмереж. Дивлячись на найважливіші змагання Kaggle, здається, що ці дві техніки використовуються разом дуже часто. Я не бачу жодної теоретичної різниці, окрім реальної реалізації. Хто може мені пояснити, чому ми повинні використовувати їх обох у будь-якому реальному застосуванні? і чому ефективність покращується, коли ми використовуємо їх обох?