机器学习 | GBDT

Posted AI算法攻城狮

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习 | GBDT相关的知识,希望对你有一定的参考价值。

GBDT的全称是Gradient Boosting Decision Tree,梯度提升树,在传统机器学习算法中,GBDT算的上TOP3的算法。想要理解GBDT的真正意义,那就必须理解GBDT中的Gradient Boosting和Decision Tree分别是什么?

1、Decision Tree:CART回归树

首先,GBDT使用的决策树是CART回归树,无论是处理回归问题还是二分类以及多分类,GBDT使用的决策树通通都是CART回归树,为什么不用CART分类树呢?因为GBDT每次迭代要拟合的是梯度值,是连续值所以要回归树。

对于回归树算法来说最重要的是寻找最佳的划分点,那么回归树中的可换分点包含了所有特征的所有可取的值。在分类数中最佳划分点的判别标准是熵或基尼系数,都会用纯度来衡量的,但是在回归树中的样本标签是连续数值,所以再使用熵之类的指标不再合适,取而代之的是平方误差,它能很好的评判拟合程度

回归树生成算法:

输入:训练数据集D

输出:回归树f(x)

在训练数据集所在的输入空间中,递归的将每个区域划分为两个子区域并决定每个子区域上的输出值,构建二叉决策树

(1)选择最优划分变量j与切分点s,求解

遍历变量j,对固定的切分变量j扫描切分点s,选择使得上式达到最小值的对(j,s)

(2)

以上是关于机器学习 | GBDT的主要内容,如果未能解决你的问题,请参考以下文章

机器学习-GBDT算法理解

机器学习 | GBDT

机器学习算法总结--GBDT

机器学习-集成学习GBDT

Python机器学习实战决策树与集成学习——集成学习GBDT

机器学习--boosting家族之GBDT