机器学习——集成学习之Boosting

Posted 笨拙的忍者

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习——集成学习之Boosting相关的知识,希望对你有一定的参考价值。

整理自:

https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1

  • AdaBoost
  • GBDT
  • Xgboost

1.AdaBoost

Boosting的本质实际上是一个加法模型,通过改变训练样本权重学习多个分类器并进行一些线性组合。而Adaboost就是加法模型+指数损失函数+前项分布算法。Adaboost就是从弱分类器出发反复训练,在其中不断调整数据权重或者是概率分布,同时提高前一轮被弱分类器误分的样本的权值。最后用分类器进行投票表决(但是分类器的重要性不同)。 


2.GBDT

将基分类器变成二叉树,回归用二叉回归树,分类用二叉分类树。和上面的Adaboost相比,回归树的损失函数为平方损失,同样可以用指数损失函数定义分类问题。但是对于一般损失函数怎么计算呢?GBDT(梯度提升决策树)是为了解决一般损失函数的优化问题,方法是用损失函数的负梯度在当前模型的值来模拟回归问题中残差的近似值。 
:由于GBDT很容易出现过拟合的问题,所以推荐的GBDT深度不要超过6,而随机森林可以在15以上。


3.Xgboost

这个工具主要有以下几个特点:

  • 支持线性分类器
  • 可以自定义损失函数,并且可以用二阶偏导
  • 加入了正则化项:叶节点数、每个叶节点输出score的L2-norm
  • 支持特征抽样
  • 在一定情况下支持并行,只有在建树的阶段才会用到,每个节点可以并行的寻找分裂特征。

 

以上是关于机器学习——集成学习之Boosting的主要内容,如果未能解决你的问题,请参考以下文章

机器学习之集成学习和随机森林

机器学习之Adaboost

集成学习之Boosting —— Gradient Boosting原理

集成学习之Boosting —— AdaBoost原理

机器学习之集成学习

机器学习之集成学习