Запитання з тегом «random-forest»

Випадковий ліс - це метод машинного навчання, заснований на поєднанні результатів багатьох дерев рішень.

1
Чому мої випадкові лісові результати такі мінливі?
Я намагаюся перевірити здатність випадкових лісів класифікувати вибірки між 2 групами; Для класифікації використовується 54 зразки та різна кількість змінних. Мені було цікаво, чому підрахунки "OOB" можуть змінюватись на 5% один від одного, навіть коли я використовую дерева з 50 кб? Це щось, у чому може допомогти завантажувальна програма?

1
Випадкова регресія Лісу для прогнозування часових рядів
Я намагаюся використовувати регресію РФ для прогнозування ефективності роботи паперового комбінату. Я маю дані за хвилиною за хвилиною для вхідних даних (швидкість і кількість деревної маси, що надходить в т. Д.), А також про продуктивність машини (виготовлений папір, потужність, намальована машиною), і я хочу зробити прогнози 10 хвилин вперед щодо …

3
Випадки використання RBF SVM (проти логістичної регресії та випадкового лісу)
Підтримка векторних машин з радіально-базовим функціональним ядром є класифікатором, що контролюється загальним призначенням. Хоча я знаю теоретичні основи цих СВМ та їхніх сильних моментів, я не знаю випадків, коли вони є кращим методом. Отже, чи існує клас проблем, за допомогою яких RBF SVM перевершує інші методи ML? (Або з точки …

1
Чи потребує моделювання з випадковими лісами перехресне підтвердження?
Наскільки я бачив, думки щодо цього зазвичай відрізняються. Найкраща практика, безумовно, диктує використання перехресної перевірки (особливо якщо порівнювати радіочастотні сигнали з іншими алгоритмами на тому ж наборі даних). З іншого боку, першоджерело зазначає, що обчислюється похибка OOB під час навчання моделі є достатньою для показника продуктивності тестового набору. Навіть Тревор …

1
Випадковий ліс проти Адабоост
У розділі 7 статті " Випадкові ліси" (Брейман, 1999) автор констатує таку гіпотезу: "Адабоост - випадковий ліс". Хтось довів чи спростував це? Що було зроблено для підтвердження чи спростування цієї посади 1999 року?

1
Випадкові лісові ймовірнісні прогнози проти більшості голосів
Здається, Scikit використовує ймовірнісне прогнозування замість більшості голосів для методики моделювання агрегації без пояснення того, чому (1.9.2.1. Випадкові ліси). Чи є чітке пояснення чому? Далі є хороша стаття чи огляд статей для різних методів агрегації моделей, які можна використовувати для випадкового розпалювання лісу? Дякую!


2
Як змінити поріг класифікації у R randomForests?
Вся література з моделювання розподілу видів передбачає, що при прогнозуванні присутності / відсутності виду за допомогою моделі, яка видає ймовірності (наприклад, RandomForests), важливим є вибір порогової ймовірності, за якою фактично класифікувати вид як наявність чи відсутність, і слід не завжди покладаються на дефолт 0,5. Мені потрібна допомога з цим! Ось …

2
Caret varImp для моделі randomForest
У мене виникають проблеми з розумінням того, як varImpфункція працює для моделі randomForest з caretпакетом. У наведеному нижче прикладі функція var3 набуває нульового значення, використовуючи функцію caret varImp, але основна випадкова кінцева модельForest має ненульове значення для функції var3. Чому це так? require(randomForest) require(caret) rf <- train(x, y, method = …
10 r  caret  random-forest 

1
Як я можу включити інноваційний зовнішній вигляд під спостереження 48 у свою модель ARIMA?
Я працюю над набором даних. Після використання деяких методів ідентифікації моделі я вийшов із моделлю ARIMA (0,2,1). Я використав detectIOфункцію в пакеті TSAв R, щоб виявити інноваційний зовнішній вигляд (IO) під час 48-го спостереження за моїм оригінальним набором даних. Як я включу цей зовнішній вигляд у свою модель, щоб я …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

3
Обмеження методів ансамблю на основі дерев у малих n, великих p задачах?
Методи ансамблю на основі дерев, такі як "Випадковий ліс" та наступні похідні (наприклад, умовний ліс), усі вони вважають корисними у так званих "малих n , великих p " проблемах для визначення відносної змінної важливості. Дійсно, це так і є, але моє питання полягає в тому, наскільки далеко можна взяти цю …

1
randomForest та змінна важлива помилка?
Я не отримую різниці між rfobject$importanceі importance(rfobject)в стовпці MeanDecreaseAccuracy. Приклад: > data("iris") > fit <- randomForest(Species~., data=iris, importance=TRUE) > fit$importance setosa versicolor virginica MeanDecreaseAccuracy MeanDecreaseGini Sepal.Length 0.027078501 0.019418330 0.040497602 0.02898837 9.173648 Sepal.Width 0.008553449 0.001962036 0.006951771 0.00575489 2.472105 Petal.Length 0.313303381 0.291818815 0.280981959 0.29216790 41.284869 Petal.Width 0.349686983 0.318527008 0.270975757 0.31054451 46.323415 > …

4
Чи існує спосіб використання перехресної перевірки для вибору змінної / функції в R?
У мене є набір даних з приблизно 70 змінними, які я хотів би скоротити. Що я хочу зробити, це використовувати CV для пошуку найбільш корисних змінних у наступний спосіб. 1) Випадково виберіть скажімо 20 змінних. 2) Використовуйте stepwise/ LASSO/ lars/ тощо, щоб вибрати найбільш важливі змінні. 3) Повторіть ~ 50x …

6
Порівняйте R-квадрат у двох різних моделях Random Forest
Я використовую пакет randomForest в R, щоб розробити випадкову лісову модель, щоб спробувати пояснити безперервний результат у "широкому" наборі даних з більшою кількістю предикторів, ніж зразків. Зокрема, я підхоплюю одну модель РФ, яка дозволяє процедурі вибирати з набору змінних ~ 75 прогнозів, які я вважаю важливими. Я перевіряю, наскільки добре …

1
Чи можуть випадкові ліси зробити набагато краще, ніж 2,8% помилки тесту на MNIST?
Я не знайшов жодної літератури щодо застосування випадкових лісів до MNIST, CIFAR, STL-10 тощо. Тому я подумав, що спробував би їх з інваріантним перестановкою MNIST. У R я спробував: randomForest(train$x, factor(train$y), test$x, factor(test$y), ntree=500) Це тривало протягом 2 годин і отримало 2,8% тестової помилки. Я також спробував scikit-learn , с …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.