Рецензуючи " Прикладне прогнозне моделювання ", рецензент зазначає :
Однією з моїх критик педагогіки статистичного навчання є відсутність міркувань щодо обчислювальної роботи в оцінці різних методик моделювання. З його акцентом на завантажувальній та перехресній валідації для налаштування / тестування моделей, SL є досить обчислювальним. Додайте до цього повторний відбір зразків, вбудований у такі методи, як пакування та прискорення, і у вас є спектр пекла обчислень для наглядового вивчення великих наборів даних. Насправді обмеження пам’яті R накладають досить суворі обмеження на розмір моделей, які можуть відповідати найкращим методам, таким як випадкові ліси. Хоча SL робить хорошу калібрування продуктивності моделі в порівнянні з невеликими наборами даних, було б точно зрозуміти продуктивність порівняно з обчислювальною вартістю для великих даних.
Що таке обмеження пам’яті R, і чи встановлюють вони суворі обмеження щодо розміру моделей, які можуть відповідати найкращим методам, як випадкові ліси ?