GBDT 梯度提升决策树简述

Posted kongweisi

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了GBDT 梯度提升决策树简述相关的知识,希望对你有一定的参考价值。

首先明确一点,gbdt 无论用于分类还是回归一直都是使用的CART 回归树。不会因为我们所选择的任务是分类任务就选用分类树,这里面的核心是因为gbdt 每轮的训练是在上一轮的训练的残差基础之上进行训练的。这里的残差就是当前模型的负梯度值 。这个要求每轮迭代的时候,弱分类器的输出的结果相减是有意义的。残差相减是有意义的。

        如果选用的弱分类器是分类树,类别相减是没有意义的。上一轮输出的是样本 x 属于 A类,本一轮训练输出的是样本 x 属于 B类。 A 和 B 很多时候甚至都没有比较的意义,A 类- B类是没有意义的。

链接:

https://www.cnblogs.com/ModifyRong/p/7744987.html

以上是关于GBDT 梯度提升决策树简述的主要内容,如果未能解决你的问题,请参考以下文章

GBDT:梯度提升决策树

笔记︱决策树族——梯度提升树(GBDT)

GBDT 简述

GBDT-梯度提升决策树

GBDT:梯度提升决策树

机器学习—Adaboost 和 梯度提升树GBDT