Визначення з min_child_weight параметра в xgboost задається як:
мінімальна сума ваги екземпляра (гессіана), необхідна дитині. Якщо на етапі розділу дерева з’явиться вузол аркуша із сумою ваги екземпляра менше min_child_weight, тоді процес побудови відмовиться від подальшого розподілу. У режимі лінійної регресії це просто відповідає мінімальній кількості екземплярів, необхідних для кожного вузла. Чим більший, тим консервативніший буде алгоритм.
Я прочитав досить багато речей про xgboost, включаючи оригінальний папір (див. Формулу 8 і той, що знаходиться відразу після рівняння 9), це питання і більшість справ, пов’язаних з xgboost, які з’являються на перших кількох сторінках пошуку в Google. ;)
В основному я все ще не задоволений, чому ми накладаємо обмеження на суму гессіана? Моя єдина думка, що випадає з оригінальної статті, - це те, що вона стосується зваженого квантильного ескізного розділу (і переформулювання за рівнянням 3 зваженого збитку в квадраті), який має як "вагу" кожного екземпляра.
Подальше питання стосується того, чому це просто кількість випадків у режимі лінійної регресії? Я думаю, це пов'язано з другою похідною суми рівнянь квадратів?