RegressionTree(回归树)

Posted yangyang12138

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了RegressionTree(回归树)相关的知识,希望对你有一定的参考价值。

1.概述

回归树就是用树模型做回归问题,每一片叶子都输出一个预测值。预测值一般是该片叶子所含训练集元素输出的均值,

即 ????=??????(????|??????????????)cm=ave(yi|xi∈leafm)。

 

2.构建过程

回归树采用平方和损失函数

技术图片

 

每次选择一个切分变量j和切分点s使得

技术图片

 

 其中

技术图片

 

 对于拆分的两个部分继续使用上述方式进行拆分,直至满足停止条件(达到指定深度),

 

cm是一个叶子节点的预测值,这个问题很明显如果不限制深度最终会达到一个叶子节点只有一条数据的过拟合现象。

 

技术图片

 

 

 

 

CART 在分类问题和回归问题中的相同和差异:

  • 相同:
    • 在分类问题和回归问题中,CART 都是一棵二叉树,除叶子节点外的所有节点都有且仅有两个子节点;
    • 所有落在同一片叶子中的输入都有同样的输出。
  • 差异:
    • 在分类问题中,CART 使用基尼指数(Gini index)作为选择特征(feature)和划分(split)的依据;在回归问题中,CART 使用 mse(mean square error)或者 mae(mean absolute error)作为选择 feature 和 split 的 criteria。
    • 在分类问题中,CART 的每一片叶子都代表的是一个 class;在回归问题中,CART 的每一片叶子表示的是一个预测值,取值是连续的。

以上是关于RegressionTree(回归树)的主要内容,如果未能解决你的问题,请参考以下文章

CART & GBDT

机器学习-数值预测的树

掌握Spark机器学习库-07.6-线性回归实现房价预测

机器学习算法决策树-5 CART回归树法,M5回归树算法对CART算法改进了什么

机器学习系列(三十六)——回归决策树与决策树总结

sklearn库学习------决策树(回归树DecisionTreeRegressor)