Запитання з тегом «boosting»

Сімейство алгоритмів, що поєднують слабо прогностичні моделі в сильно прогностичну модель. Найбільш поширений підхід називається збільшенням градієнта, а найчастіше слабкими моделями є дерева класифікації / регресії.


2
Градієнт, що підсилює дерево проти випадкового лісу
Підвищення градієнтного дерева, запропоноване Фрідманом, використовує дерева рішень як базових учнів. Мені цікаво, чи варто робити базове дерево рішень максимально складним (повністю вирощеним) чи простішим? Чи є пояснення щодо вибору? Випадковий ліс - ще один ансамблевий метод, що використовує дерева рішень як базових учнів. Виходячи з мого розуміння, ми зазвичай …

4
Як налаштувати гіперпараметри дерев xgboost?
У мене є дані про незбалансований клас, і я хочу налаштувати гіперпараметри підсиленого тресу за допомогою xgboost. Запитання Чи є еквівалент gridsearchcv або randomsearchcv для xgboost? Якщо ні, то який рекомендований підхід до налаштування параметрів xgboost?

5
Чи випадковий ліс є алгоритмом підвищення?
Коротке визначення стимулювання : Чи може набір слабких учнів створити одного сильного учня? Слабкий учень визначається як класифікатор, який лише трохи корелює з справжньою класифікацією (він може мітити приклади краще, ніж випадкові здогадки). Коротке визначення випадкових лісів : Випадкові ліси вирощують багато дерев класифікації. Щоб класифікувати новий об’єкт із вхідного …

2
Інтуїтивно зрозумілі розбіжності між градієнтними підсилюючими деревами (ГБМ) та Адабоостом
Я намагаюся зрозуміти відмінності між GBM та Adaboost. Це те, що я зрозумів поки що: Існують обидва алгоритму підвищення, який вивчає помилки попередньої моделі і, нарешті, складає зважену суму моделей. GBM і Adaboost дуже схожі за винятком функцій втрат. Але все одно мені важко схопити уявлення про відмінності між ними. …
48 boosting  gbm  adaboost 

2
Підвищення градієнта для лінійної регресії - чому це не працює?
Дізнаючись про Gradient Boosting, я не чув про обмеження щодо властивостей "слабкого класифікатора", який метод використовує для побудови та ансамблю моделі. Однак я не міг уявити додаток ГБ, що використовує лінійну регресію, і насправді, коли я виконував деякі тести - це не працює. Я випробовував найбільш стандартний підхід з градієнтом …

2
Це сучасна методологія регресії?
Я спостерігаю за змаганнями за Kaggle довгий час, і я усвідомлюю, що багато виграшних стратегій передбачають використання принаймні однієї з "великих трійки": розстрілювання, підсилення та складання. Що стосується регресії, а не концентруватись на побудові однієї найкращої можливої ​​регресійної моделі, створюється кілька регресійних моделей, таких як (Узагальнена) лінійна регресія, випадкові лісові, …

1
Математичні відмінності між GBM, XGBoost, LightGBM, CatBoost?
Існує кілька реалізацій моделі GBDT, таких як: ГБМ XGBoost LightGBM Catboost. Які математичні відмінності між цими різними реалізаціями? Catboost, здається, перевершує інші реалізації навіть використовуючи лише його параметри за замовчуванням відповідно до цієї тестової позначки , але це все ще дуже повільно. Я думаю, що catboost не використовує думіфіковані змінні, …
33 boosting  xgboost 

1
Відносна змінна важливість для підвищення рівня
Я шукаю пояснення того, як обчислюється відносна змінна важливість у градієнтних підсилених деревах, що не є надто загальним / спрощеним, як: Заходи ґрунтуються на кількості вибраних змінних для розщеплення, зважених вдосконаленням у формі квадрата в результаті кожного розколу та усередненому для всіх дерев . [ Еліт та ін. 2008 р., …

1
Які корисні вказівки щодо параметрів GBM?
Які корисні вказівки щодо тестування параметрів (наприклад, глибина взаємодії, мінчік, частота вибірки тощо) з використанням ГБМ? Скажімо, у мене 70-100 функцій, кількість населення 200 000, і я маю намір перевірити взаємодію на глибині 3 і 4. Ясно, що мені потрібно зробити кілька тестувань, щоб побачити, яка комбінація параметрів найкраще вибірка. …

5
Що означає глибина взаємодії в ГБМ?
У мене виникло питання про параметр глибини взаємодії в gbm в R. Це може бути питання noob, за яке я вибачаюся, але як параметр, який, на мою думку, позначає кількість кінцевих вузлів у дереві, в основному вказує X-шлях взаємодія між предикторами? Просто намагаюся зрозуміти, як це працює. Крім того, я …

1
Наближення функції втрати XGBoost з розширенням Тейлора
Як приклад, візьміть об'єктивну функцію моделі XGBoost на ttt -й ітерації: L(t)=∑i=1nℓ(yi,y^(t−1)i+ft(xi))+Ω(ft)L(t)=∑i=1nℓ(yi,y^i(t−1)+ft(xi))+Ω(ft)\mathcal{L}^{(t)}=\sum_{i=1}^n\ell(y_i,\hat{y}_i^{(t-1)}+f_t(\mathbf{x}_i))+\Omega(f_t) де ℓℓ\ell функція втрат, ftftf_t є ttt «го вихідного дерева і ΩΩ\Omega є регуляризація. Одним із (багатьох) ключових кроків для швидкого обчислення є наближення: L(t)≈∑i=1nℓ(yi,y^(t−1)i)+gtft(xi)+12hif2t(xi)+Ω(ft),L(t)≈∑i=1nℓ(yi,y^i(t−1))+gtft(xi)+12hift2(xi)+Ω(ft),\mathcal{L}^{(t)}\approx \sum_{i=1}^n\ell(y_i,\hat{y}_i^{(t-1)})+g_tf_t(\mathbf{x}_i)+\frac{1}{2}h_if_t^2(\mathbf{x}_i)+\Omega(f_t), де gigig_i і hihih_i є першою та другою похідними функції втрат. Мене …

3
Чому підсилюючи, чому учні "слабкі"?
Дивіться також подібне запитання на stats.SE . В активізації алгоритмів , таких як AdaBoost і LPBoost відомо , що «слабкі» учні повинні бути об'єднані тільки повинні працювати краще , ніж шанс бути корисним, з Вікіпедії: Класифікатори, які він використовує, можуть бути слабкими (тобто відображати істотну швидкість помилок), але поки їх …


2
Про «силу» слабких учнів
У мене є декілька тісно пов’язаних питань щодо слабких учнів, що навчаються в ансамблі (наприклад, стимулювання). Це може здатися німим, але які переваги використання слабких на відміну від сильних учнів? (наприклад, чому б не підсилити "сильні" методи навчання?) Чи є якась "оптимальна" сила для слабких учнів (наприклад, зберігаючи всі інші …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.