Запитання з тегом «bagging»

Агрегація баггета або завантаження - це окремий випадок усереднення моделі. Даний стандартний навчальний набір створює мішким нові навчальні набори шляхом завантаження, а потім результати використання певного методу навчання на мзгенеровані набори даних усереднюються. Баггінг може стабілізувати результати від деяких нестабільних методів, таких як дерева.


5
Чи випадковий ліс є алгоритмом підвищення?
Коротке визначення стимулювання : Чи може набір слабких учнів створити одного сильного учня? Слабкий учень визначається як класифікатор, який лише трохи корелює з справжньою класифікацією (він може мітити приклади краще, ніж випадкові здогадки). Коротке визначення випадкових лісів : Випадкові ліси вирощують багато дерев класифікації. Щоб класифікувати новий об’єкт із вхідного …

2
Це сучасна методологія регресії?
Я спостерігаю за змаганнями за Kaggle довгий час, і я усвідомлюю, що багато виграшних стратегій передбачають використання принаймні однієї з "великих трійки": розстрілювання, підсилення та складання. Що стосується регресії, а не концентруватись на побудові однієї найкращої можливої ​​регресійної моделі, створюється кілька регресійних моделей, таких як (Узагальнена) лінійна регресія, випадкові лісові, …


3
Коли я не повинен використовувати класифікатор ансамблю?
Загалом, у проблемі класифікації, де мета - точно передбачити вибіркову приналежність до класу, коли я не повинен використовувати класифікатор ансамблю? Це питання тісно пов'язане з тим, чому б не завжди використовувати ансамблеве навчання? . Це питання задає, чому ми не використовуємо ансамблі весь час. Хочеться знати, чи є випадки, коли …

1
Які теоретичні гарантії пакування
Я (приблизно) чув, що: пакетування - це методика зменшення дисперсії алгоритму прогнозування / оцінки / навчання. Однак я ніколи не бачив формального математичного підтвердження цього твердження. Хтось знає, чому це математично вірно? Це, мабуть, є таким широко прийнятим / відомим фактом, що я очікую прямого посилання на це. Я був …

1
Підвищення та захоплення дерев (XGBoost, LightGBM)
Є багато повідомлень в блогах, відео на YouTube і т.д. про ідеях розфасовки або підвищення дерев. Моє загальне розуміння полягає в тому, що псевдокод для кожного такий: Мішок: Візьміть N випадкових вибірок x% зразків і y% ознак Встановіть свою модель (наприклад, дерево рішень) на кожен з N Прогнозуйте з кожним …

1
Який багаторазовий метод порівняння використовувати для lmer-моделі: lsmeans або glht?
Я аналізую набір даних, використовуючи модель змішаних ефектів з одним фіксованим ефектом (умовою) та двома випадковими ефектами (учасник, обумовлений в рамках проекту та пари). Модель була згенерована з lme4пакетом: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Далі я провів перевірку коефіцієнта ймовірності цієї моделі проти моделі без фіксованого ефекту (умови) і маю суттєву різницю. У моєму …

2
Чому функція bootstrap scikit-learn переутворює тестовий набір?
Під час використання завантажувальної програми для оцінки моделі, я завжди вважав, що зразки з мішків безпосередньо використовуються як тестовий набір. Однак, як видається, це не стосується застарілого підходу наукової роботиBootstrap , який, здається, будує тестовий набір із малювання із заміною із підмножини даних із пакета. Які статистичні міркування стоять за …

1
Які алгоритми пакетування гідні наступників Random Forest?
Щодо прискорення алгоритмів, я б сказав, що вони розвивалися досить добре. На початку 1995 року була представлена ​​AdaBoost, потім через деякий час це була градієнтна машина для підсилення (GBM). Нещодавно, близько 2015 року, було представлено XGBoost, який є точним, справляється з оснащенням і став переможцем кількох змагань Kaggle. У 2017 …

5
Випадковий алгоритм лісу та дерева рішень
Випадковий ліс - це сукупність дерев рішень, що дотримуються концепції сміття. Коли ми переходимо від одного дерева рішень до наступного дерева рішень, то як інформація, отримана за останнім деревом рішення, рухається вперед до наступного? Тому що, наскільки я розумію, немає нічого подібного до навченої моделі, яка створюється для кожного дерева …

3
Чи є випадкові лісові та підсилювальні параметричні чи непараметричні?
Читаючи чудове статистичне моделювання: Дві культури (Брейман 2001) , ми зможемо використати всю різницю між традиційними статистичними моделями (наприклад, лінійною регресією) та алгоритмами машинного навчання (наприклад, Baging, Random Forest, Boosted дерева ...). Брейман критикує моделі даних (параметричні), оскільки вони ґрунтуються на припущенні, що спостереження породжуються відомою формальною моделлю, призначеною статистиком, …

1
Чому б не завжди використовувати ансамблеве навчання?
Мені здається, що ансамблеве навчання завжди дасть кращі показники прогнозування, ніж лише одна гіпотеза навчання. То чому б ми не використовували їх постійно? Моя здогадка, можливо, через обчислювальні обмеження? (навіть тоді ми використовуємо слабкі предиктори, тому я не знаю).

2
Чому мішковане / випадкове лісове дерево має більший ухил, ніж одне дерево рішень?
Якщо ми розглянемо повне вирощене дерево рішень (тобто дерево без рішення), воно має велику дисперсію та низький ухил. Баггінг та випадкові ліси використовують ці моделі з високою дисперсією та агрегують їх, щоб зменшити дисперсію та, таким чином, підвищити точність прогнозування. І Baging, і випадкові ліси використовують вибірку Bootstrap, і як …

1
Випадкові лісові ймовірнісні прогнози проти більшості голосів
Здається, Scikit використовує ймовірнісне прогнозування замість більшості голосів для методики моделювання агрегації без пояснення того, чому (1.9.2.1. Випадкові ліси). Чи є чітке пояснення чому? Далі є хороша стаття чи огляд статей для різних методів агрегації моделей, які можна використовувати для випадкового розпалювання лісу? Дякую!

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.