Я намагаюся зрозуміти, як працює XGBoost. Я вже розумію, як підсилені градієнти дерева працюють на склеарні Python. Що мені незрозуміло, це якщо XGBoost працює однаково, але швидше або якщо існують принципові відмінності між ним та реалізацією python.
Коли я прочитав цей документ
http://learningsys.org/papers/LearningSys_2015_paper_32.pdf
Мені здається, що кінцевий результат, що виходить з XGboost, такий же, як і в реалізації Python, проте головна відмінність полягає в тому, як XGboost знаходить найкращий розкол у кожному дереві регресії.
В основному, XGBoost дає той же результат, але він швидший.
Це правильно, чи я чогось іншого мені бракує?