GBDTttt

Posted pacino12134

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了GBDTttt相关的知识,希望对你有一定的参考价值。

一、流程

基函数线性加权和得到最终的强分类器。每轮迭代得到一个弱分类器,这个分类器是在上一轮的残差基础上得到的。本轮就是要找一个cart树,使得本轮的损失函数值更加的小。

二、如何选择特征(就是如何生成cart树)

回归树:平方误差和最小化,对于特征A=a时,集合D的误差最小时,就选择这个特征值最为切分点。

分类树:使用基尼系数,计算对于特征A=a时,集合D的基尼指数最小时,就选择这个特征最为切分点。

技术图片

三、如何构建特征?

GBDT本身不能产生特征的,产生的是特征的组合。

例如用gbdt生成两颗子树(cart回归树),一共5个叶子节点,那么将一个样本放入到这两个子树中,肯定会在这两个子树的某一个叶子节点输出,最后有两个输出。令输出的叶子节点为1,否则为0,那么组成的向量就是[0,1,1,0,0],这就是特征的组合后的向量,再将这个和原来的特征一起输入的逻辑回归函数中进行训练,最后的效果得到了提升,而不用全都是人工设定的特征了。

四、损失函数拟合?

用损失函数的负梯度去拟合本轮损失值(残差)的近似值,进而去拟合一颗cart回归树

 

以上是关于GBDTttt的主要内容,如果未能解决你的问题,请参考以下文章