GBDT 梯度提升决策树简述
Posted kongweisi
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了GBDT 梯度提升决策树简述相关的知识,希望对你有一定的参考价值。
首先明确一点,gbdt 无论用于分类还是回归一直都是使用的CART 回归树。不会因为我们所选择的任务是分类任务就选用分类树,这里面的核心是因为gbdt 每轮的训练是在上一轮的训练的残差基础之上进行训练的。这里的残差就是当前模型的负梯度值 。这个要求每轮迭代的时候,弱分类器的输出的结果相减是有意义的。残差相减是有意义的。
如果选用的弱分类器是分类树,类别相减是没有意义的。上一轮输出的是样本 x 属于 A类,本一轮训练输出的是样本 x 属于 B类。 A 和 B 很多时候甚至都没有比较的意义,A 类- B类是没有意义的。
链接:
https://www.cnblogs.com/ModifyRong/p/7744987.html
以上是关于GBDT 梯度提升决策树简述的主要内容,如果未能解决你的问题,请参考以下文章