Запитання з тегом «random-forest»

Випадковий ліс - це метод машинного навчання, заснований на поєднанні результатів багатьох дерев рішень.

1
Значення осі y на графіку часткової залежності випадкової ліси
Я використовую RandomForestпакет R і розгублений, як інтерпретувати значення осі Y в їх часткових ділянках залежності. Документи довідки констатують, що графік - це "графічне зображення граничного ефекту змінної на ймовірність класу". Однак я все ще плутаю, що саме являє собою вісь y. Зокрема, що означають негативні значення? Що означає негативний …

5
Як виконати імпутацію значень у дуже великій кількості точок даних?
У мене дуже великий набір даних, і близько 5% випадкових значень відсутні. Ці змінні співвідносяться між собою. Наступний приклад набору даних R - це лише іграшковий приклад з манекено-корельованими даними. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
Перші кроки навчання для прогнозування фінансових часових періодів за допомогою машинного навчання
Я намагаюся зрозуміти, як використовувати машинне навчання для прогнозування фінансових часових серій 1 або більше кроків у майбутнє. У мене є фінансові часописи з деякими описовими даними, і я хотів би сформувати модель, а потім використовувати модель для прогнозування n-кроків вперед. Що я робив поки що: getSymbols("GOOG") GOOG$sma <- SMA(Cl(GOOG)) …

3
Прогнозування даних підрахунку з випадковим лісом
Чи можна навчитись випадковому лісу для відповідного прогнозування даних підрахунку? Як би це діяло? У мене досить широкий діапазон значень, тому класифікація насправді не має сенсу. Якби я застосував регресію, я б просто врізав результати? Я тут зовсім загубився. Будь-які ідеї?

2
Випадковий ліс: що, якщо я знаю, що змінна важлива
Я розумію, що випадковий ліс вибирає випадковим чином mtry змінних для побудови кожного дерева рішень. Отже, якщо mtry = ncol / 3, то кожна змінна буде використовуватися в середньому на 1/3 дерев. І 2/3 дерев ними не користуватимуться. Але що робити, якщо я знаю, що одна змінна, ймовірно, дуже важлива, …

2
randomForest вибирає регресію замість класифікації
Я використовую пакет randomForest в R і використовую дані райдужки, випадковий ліс, що генерується, є класифікацією, але коли я використовую набір даних, що містить близько 700 функцій (функції мають кожен піксель у зображенні розміром 28x28 пікселів), і стовпець мітки називається label, randomForestгенерується регресія. Я використовую наступний рядок: rf <- randomForest(label …
12 r  random-forest 

2
PCA та випадкові ліси
Для нещодавнього змагання Kaggle я (вручну) визначив 10 додаткових функцій для мого навчального набору, які потім будуть використовуватися для тренування випадкового класифікатора лісів. Я вирішив запустити PCA на набір даних з новими функціями, щоб побачити, як вони порівнюють один одного. Я виявив, що ~ 98% дисперсії несе перший компонент (перший …


1
Як зменшити кількість помилкових позитивних результатів?
Я намагаюся вирішити завдання, яке називається пішохідним виявленням, і треную двійковий клацифер на двох позитивних категоріях - люди, негативи - на тлі. У мене є набір даних: кількість позитивів = 3752 кількість від’ємника = 3800 Я використовую поїзд \ test split 80 \ 20% і RandomForestClassifier форму scikit-learn з параметрами: …

1
Чи потрібна попередня обробка перед прогнозуванням за допомогою FinalModel of RandomForest з пакетом caret?
Я використовую пакет caret для навчання випадкового об'єкта Forest з 10x10CV. library(caret) tc <- trainControl("repeatedcv", number=10, repeats=10, classProbs=TRUE, savePred=T) RFFit <- train(Defect ~., data=trainingSet, method="rf", trControl=tc, preProc=c("center", "scale")) Після цього я тестую randomForest на testSet (нові дані) RF.testSet$Prediction <- predict(RFFit, newdata=testSet) Матриця плутанини показує мені, що модель не така вже …

2
Як поєднати результати логістичної регресії та випадкового лісу?
Я новачок у машинному навчанні. Я застосував логістичну регресію та випадковий ліс на одному і тому ж наборі даних. Тож я набуваю змінної важливості (абсолютний коефіцієнт для логістичної регресії та змінне значення для випадкових лісів). Я думаю об'єднати два, щоб отримати остаточне значення змінної. Чи може хтось поділитися своїм досвідом? …

2
Вибір функцій та налаштування параметрів з оберегом для випадкових лісів
У мене є дані з кількома тисячами функцій, і я хочу зробити рекурсивний вибір функцій (RFE), щоб видалити неінформативні. Я роблю це з каретою та RFE. Однак я почав думати, якщо я хочу отримати найкращу регресію (наприклад, випадковий ліс), коли мені слід виконати налаштування параметрів ( mtryдля РФ)? Тобто, наскільки …

1
Стратифікована класифікація з випадковими лісами (або іншим класифікатором)
Отже, у мене є матриця розміром приблизно 60 х 1000. Я розглядаю її як 60 об'єктів з 1000 особливостями; 60 об’єктів об’єднані в 3 класи (a, b, c). 20 предметів у кожному класі, і ми знаємо справжню класифікацію. Мені хотілося б вивчити під контролем цей набір з 60 прикладів навчання, …

2
Чи виявляються випадкові ліси упередженими прогнозами?
Я думаю, що це прямо запитання, хоча міркувань, чому це може статися, чому ні, не може бути. Причина, яку я запитую, - це те, що я нещодавно написав власну реалізацію РФ, і хоча вона працює добре, вона не є такою добре, як я очікувала (на основі набору даних змагань з …

3
Випадкова регресія лісу, яка не прогнозує вище, ніж дані про навчання
Я помітив, що при побудові випадкових лісових регресійних моделей, принаймні в R, передбачуване значення ніколи не перевищує максимальне значення цільової змінної, видно у навчальних даних. Як приклад, дивіться код нижче. Я будую регресійну модель для прогнозування mpgна основі mtcarsданих. Я будую OLS та випадкові лісові моделі та використовую їх для …
12 r  random-forest 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.