Я налаштовував модель за допомогою caret
, але потім повторно запустив модель за допомогою gbm
пакета. Наскільки я розумію, що caret
пакет використовує gbm
і вихід повинен бути однаковим. Однак, лише швидкий тестовий пробіг із застосуванням data(iris)
показує невідповідність моделі приблизно 5%, використовуючи RMSE і R ^ 2 в якості метрики оцінювання. Я хочу знайти оптимальну ефективність моделі, використовуючи, caret
але повторно запустивши, gbm
щоб використовувати схеми часткової залежності. Код нижче для відтворюваності.
Мої запитання:
1) Чому я бачу різницю між цими двома пакунками, навіть якщо вони повинні бути однаковими (я розумію, що вони стохастичні, але 5% - це дещо велика різниця, особливо коли я не використовую такий гарний набір даних, як iris
для мого моделювання) .
2) Чи є якісь переваги чи недоліки у використанні обох пакетів - якщо так, то які?
3) Непов'язане: Використання iris
набору даних оптимальним interaction.depth
є 5, однак це вище, ніж я прочитав, максимум, використовуючи floor(sqrt(ncol(iris)))
який було б 2. Це суворе правило або це досить гнучко?
library(caret)
library(gbm)
library(hydroGOF)
library(Metrics)
data(iris)
# Using caret
caretGrid <- expand.grid(interaction.depth=c(1, 3, 5), n.trees = (0:50)*50,
shrinkage=c(0.01, 0.001),
n.minobsinnode=10)
metric <- "RMSE"
trainControl <- trainControl(method="cv", number=10)
set.seed(99)
gbm.caret <- train(Sepal.Length ~ ., data=iris, distribution="gaussian", method="gbm",
trControl=trainControl, verbose=FALSE,
tuneGrid=caretGrid, metric=metric, bag.fraction=0.75)
print(gbm.caret)
# caret determines the optimal model to be at n.tress=700, interaction.depth=5, shrinkage=0.01
# and n.minobsinnode=10
# RMSE = 0.3247354
# R^2 = 0.8604
# Using GBM
set.seed(99)
gbm.gbm <- gbm(Sepal.Length ~ ., data=iris, distribution="gaussian", n.trees=700, interaction.depth=5,
n.minobsinnode=10, shrinkage=0.01, bag.fraction=0.75, cv.folds=10, verbose=FALSE)
best.iter <- gbm.perf(gbm.gbm, method="cv")
print(best.iter)
# Here the optimal n.trees = 540
train.predict <- predict.gbm(object=gbm.gbm, newdata=iris, 700)
print(rmse(iris$Sepal.Length, train.predict))
# RMSE = 0.2377
R2 <- cor(gbm.gbm$fit, iris$Sepal.Length)^2
print(R2)
# R^2 = 0.9178`