Запитання з тегом «random-forest»

Випадковий ліс - це метод машинного навчання, заснований на поєднанні результатів багатьох дерев рішень.

2
Чому CNN укладаються з шарами FC?
З мого розуміння, CNN складаються з двох частин. Перша частина (шари conv / pool), яка виконує вилучення функції, і друга частина (шари fc), яка робить класифікацію за ознаками. Оскільки повноз'єднані нейронні мережі не є найкращими класифікаторами (тобто вони отримують більшу ефективність від SVM та RFs більшу частину часу), чому CNN …

1
Чи "справедливо" встановлювати насіння у випадковій регресії лісу, щоб отримати найвищу точність?
У мене є випадкова регресія лісу, побудована за допомогою skl, і зауважу, що я даю різні результати на основі встановлення випадкового насіння на різні значення. Якщо я використовую LOOCV, щоб встановити, яке насіння працює найкраще, чи це правильний метод?

1
RandomForest і вагові класи
Запитання в одному реченні: Хтось знає, як визначити хороші ваги класів для випадкового лісу? Пояснення: Я граю з незбалансованими наборами даних. Я хочу використовувати Rпакет randomForestдля того, щоб навчити модель на дуже перекошеному наборі даних з лише невеликими позитивними прикладами та багатьма негативними прикладами. Я знаю, є й інші методи, …
11 r  random-forest 

1
Чому великий вибір K знижує показник перехресної перевірки?
Граючи з набором даних Boston Housing Dataset та RandomForestRegressor(з параметрами за замовчуванням) у scikit-learn, я помітив щось дивне: середній бал перехресної перевірки зменшився, оскільки я збільшив кількість складок понад 10. Моя стратегія крос-валідації була така: cv_met = ShuffleSplit(n_splits=k, test_size=1/k) scores = cross_val_score(est, X, y, cv=cv_met) ... де num_cvsбуло різноманітно. Я …

2
Дерева рішень та регресія - Чи можуть передбачувані значення виходити за межі даних про навчання?
Якщо мова йде про дерева рішень, чи може передбачуване значення лежати поза діапазоном даних про навчання? Наприклад, якщо діапазон набору навчальних даних цільової змінної становить 0-100, коли я генерую свою модель і застосовую її до чогось іншого, чи можуть мої значення становити -5? або 150? З огляду на те, що …

2
Відбір проб із заміною на R randomForest
Реалізація randomForest не дозволяє відібрати вибірку за кількістю спостережень, навіть при вибірці з заміною. Чому це? Добре працює: rf <- randomForest(Species ~ ., iris, sampsize=c(1, 1, 1), replace=TRUE) rf <- randomForest(Species ~ ., iris, sampsize=3, replace=TRUE) Що я хочу зробити: rf <- randomForest(Species ~ ., iris, sampsize=c(51, 1, 1), replace=TRUE) …

2
MCMC вибірки простору дерева рішень проти випадкового лісу
Випадковий ліс являє собою сукупність дерев рішень , сформованих випадковим чином вибираючи тільки певні функції для побудови кожного дерева з (а іноді і розфасовці тренувальну дані). Мабуть, вони добре навчаються та узагальнюють. Хтось робив відбір проб MCMC у просторі дерева рішень чи порівнював їх із випадковими лісами? Я знаю, що …

1
Зменшення кількості рівнів невпорядкованої категоричної змінної предиктора
Я хочу навчити класифікатор, скажімо, SVM, або випадковий ліс, або будь-який інший класифікатор. Однією з особливостей у наборі даних є категоріальна змінна з 1000 рівнями. Який найкращий спосіб зменшити кількість рівнів у цій змінній. У R є функція, що називається combine.levels()в пакеті Hmisc , яка поєднує в собі нечасті рівні, …

2
Чи є спосіб пояснити передбачення з випадкової лісової моделі?
Скажіть, у мене є модель прогностичної класифікації на основі випадкового лісу (використовуючи пакет randomForest в R). Я хотів би налаштувати його так, щоб кінцеві користувачі могли вказати елемент для створення прогнозу, і він виведе ймовірність класифікації. Поки жодних проблем. Але було б корисно / здорово мати можливість вивести щось на …

2
Чому мішковане / випадкове лісове дерево має більший ухил, ніж одне дерево рішень?
Якщо ми розглянемо повне вирощене дерево рішень (тобто дерево без рішення), воно має велику дисперсію та низький ухил. Баггінг та випадкові ліси використовують ці моделі з високою дисперсією та агрегують їх, щоб зменшити дисперсію та, таким чином, підвищити точність прогнозування. І Baging, і випадкові ліси використовують вибірку Bootstrap, і як …

1
Мотивація за кроками випадкових лісових алгоритмів
Метод, який я знайомий для побудови випадкового лісу, полягає в наступному: (від http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm ) Щоб побудувати дерево в лісі: Завантажте зразок розміру N, де N - розмір нашого навчального набору. Використовуйте цей зразок завантаження як навчальний набір для цього дерева. На кожному вузлі дерева випадковим чином виберіть m наших M …

1
Як обчислити показники достовірності в регресії (з випадковими лісами / XGBoost) для кожного прогнозу в R?
Чи є спосіб отримати оцінку достовірності (ми можемо назвати це також достовірністю або ймовірністю) для кожного прогнозованого значення при використанні таких алгоритмів, як Random Forests або Extreme Gradient Boosting (XGBoost)? Скажімо, цей показник довіри варіюватиметься від 0 до 1 і показує, наскільки я впевнений у певному прогнозі . З того, …

1
Чи слід обрати регресора або класифікатора випадкових лісів?
Я вміщую набір даних з двійковим цільовим класом випадковим лісом. У python я можу це зробити або випадковим лісовим класифікатором, або випадковим лісовим регресором. Я можу отримати класифікацію безпосередньо від randomforestclassifier або я можу спершу запустити randomforestregressor і отримати набір оціночних балів (безперервне значення). Тоді я можу знайти значення відсікання …


2
Випадковий ліс за згрупованими даними
Я використовую випадковий ліс на високомірних згрупованих даних (50 числових вхідних змінних), які мають ієрахічну структуру. Дані були зібрані з 6-ти реплікацій на 30 позиціях 70 різних об'єктів, що призводить до 12600 точок даних, які не є незалежними. Здається, випадковий ліс надмірно підходить для даних, оскільки помилка oob набагато менша, …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.