Включення умов взаємодії у випадковій лісі


15

Припустимо, у нас є відповідь Y та предиктори X1, ...., Xn. Якби ми намагалися вписати Y за допомогою лінійної моделі X1, ...., Xn, і просто так сталося, що справжня залежність між Y і X1, ..., Xn не була лінійною, ми могли б бути в змозі щоб виправити модель, трансформуючи X якось, а потім пристосувавши модель. Більше того, якби так сталося, що X1, ..., XN не вплинули на y незалежно від інших функцій, ми також могли б вдосконалити модель, включивши умови взаємодії, x1 * x3 або x1 * x4 * x7 чи щось подібне. Тож у лінійному випадку терміни взаємодії можуть принести значення, фіксуючи порушення нелінійності чи незалежності між відповіддю та ознаками.

Однак випадкові ліси насправді не роблять цих припущень. Чи важливим є включення термінів взаємодії під час встановлення випадкового лісу? Або просто включення окремих термінів та вибір відповідних параметрів дозволять випадковим лісам охопити ці відносини?

Відповіді:


15

Хоча конструктивна інженерія дуже важлива в реальному житті, дерева (і випадкові ліси) дуже добре знаходять умови взаємодії форми x*y. Ось іграшковий приклад регресії з двосторонньою взаємодією. Наївна лінійна модель порівнюється з деревом і мішком з деревами (що є більш простою альтернативою випадковому лісу.)

Як бачите, дерево саме по собі досить добре знаходить взаємодію, але лінійна модель не є корисною в цьому прикладі.

# fake data

x <- rnorm(1000, sd=3)
y <- rnorm(1000, sd=3)
z <- x + y + 10*x*y + rnorm(1000, 0, 0.2)
dat <- data.frame(x, y, z)

# test and train split
test <- sample(1:nrow(dat), 200)
train <- (1:1000)[-test]

# bag of trees model function
boot_tree <- function(formula, dat, N=100){
  models <- list()
  for (i in 1:N){
    models[[i]] <- rpart(formula, dat[sample(nrow(dat), nrow(dat), replace=T), ])
  }
  class(models) <- "boot_tree"
  models
}

# prediction function for bag of trees
predict.boot_tree <- function(models, newdat){
  preds <- matrix(0, nc=length(models), nr=nrow(newdat))
  for (i in 1:length(models)){
    preds[,i] <- predict(models[[i]], newdat)
  }
  apply(preds, 1, function(x) mean(x, trim=0.1))
}

## Fit models and predict:

# linear model
model1 <- lm(z ~ x + y, data=dat[train,])
pred1 <- predict(model1, dat[test,])

# tree
require(rpart)
model2 <- rpart(z ~ x + y, data=dat[train,])
pred2 <- predict(model2, dat[test,])

# bag of trees
model3 <- boot_tree("z ~ x+y", dat)
pred3 <- predict(model3, dat[test,])

ylim = range(c(pred1, pred2, pred3))

# plot predictions and true z

plot(dat$z[test], predict(model1, dat[test,]), pch=19, xlab="Actual z",
ylab="Predicted z", ylim=ylim)
points(dat$z[test], predict(model2, dat[test,]), col="green", pch=19)
points(dat$z[test], predict(model3, dat[test,]), col="blue", pch=19)

abline(0, 1, lwd=3, col="orange")

legend("topleft", pch=rep(19,3), col=c("black", "green", "blue"),
legend=c("Linear", "Tree", "Forest"))

введіть тут опис зображення


4
Дуже хороша. Чи є у вас документ, який ви могли б порекомендувати з цього приводу? Спасибі
steinbock
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.