Я згоден з @ziggystar. Як кількість проб завантаженнякконвергується до нескінченності, мішкована оцінка лінійної моделі переходить до оцінки OLS (Ordinary Least Squares) лінійної моделі, що працює на всій вибірці. Шлях довести це - бачити, що завантажувальна стрічка "робить вигляд", що розподіл населення такий же, як емпіричний розподіл. Коли ви вибираєте все більше і більше наборів даних з цього емпіричного розподілу, середнє оцінене значення гіперпланів буде сходити до "справжньої гіперплани" (що є оцінкою OLS, що працює за всіма даними) за асимптотичними властивостями звичайних найменших квадратів.
Крім того, мішок не завжди є хорошою справою. Він не тільки не бореться зі зміщенням, але може посилити упередженість у деяких своєрідних випадках . Приклад:
Х1, X2, . . . , Xн∼ B e ( p )
(Випробування Бернуллі, які з вірогідністю приймають значення 1
p і значення 0 з вірогідністю
1 - с). Далі визначимо параметр
θ = 1{ p > 0 }
і спробуйте це оцінити. Звичайно, достатньо побачити єдину точку даних
Хi= 1 знати це
θ = 1. Весь зразок може містити таку точку даних і дозволяє нам оцінити
θбез жодної помилки. З іншого боку, будь-який зразок завантажувальної програми може не містити такої точки даних і призводить нас до неправильної оцінки
θз 0 (тут ми не приймаємо байєсівських рамок, використовує старий добрий метод максимальної ймовірності). Іншими словами,
Б я з с b a g g i n g= P r o b ( i n a b o o t s t r a p s a m p l e X ( 1 )= . . . = X( n )= 0 ) >0,
умовний на
θ = 1.
a_0 + a_1 * x_1 + ... + a_d * x_d
, отримана усереднена лінійна функція (після агрегування завантажувальної програми) все ще має таку ж лінійну функціональну форму, як та, з якої ви починаєте (тобто "базовий учень").