如何在R中分离预测变量的线性组合而不是CART模型的预测变量

Breiman等人提出的分类和回归树提到了在分割节点时使用预测变量的线性组合.我试图找到一种方法来尝试与R徒劳无功.

有树或rpart包假设在单变量预测器上进行拆分,并且它们不允许使用线性组合进行任何自定义.我必须创建自己的包吗?

最佳答案
我之前没有使用它,但你可能会看看CRAN上的oblique.tree package.

在?oblique.tree中的例子确实在协变量中添加了PCA输出,

data(crabs, package = "MASS")
aug.crabs.data <- data.frame(   g=factor(rep(1:4,each=50)),
                predict(princomp(crabs[,4:8]))[,2:3])

产生如下所示的数据:

协变量是第二和第三主要成分.然后它显然适合决策树,该树分裂这些变量的线性组合:

ob.tree <- oblique.tree(formula     = g~.,
            data        = aug.crabs.data,
            oblique.splits  = "only")
plot(ob.tree)
text(ob.tree,cex = 0.5)

转载注明原文:如何在R中分离预测变量的线性组合而不是CART模型的预测变量 - 代码日志