机器学习笔记五 决策树

Posted 猛男Banana君

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习笔记五 决策树相关的知识,希望对你有一定的参考价值。

一、决策树模型&学习

1)决策树的定义:是一种基本的分类与回归方法。

2)决策树的学习分三个步骤:特征选择、决策树的生成、决策树的修剪。

3)决策树能表示给定特征条件下的条件概率分布。

4)决策树学习本质上是从训练数据集中归纳出一组分类规则。

5)决策树学习根据损失函数最小化建立模型,损失函数通常是正则化的极大似然函数,决策树学习的策略是以损失函数为目标函数的最小化。

二、特征选择

1)特征选择(划分选择)是为了使结点纯度更高。

2)特征选择的准则是信息增益或信息增益比。

3)信息增益:(ID3算法)
①定义:表示由于特征A使得对数据集D进行分类的不确定性减少的程度。

②公式:g(D,A)=H(D)-H(D|A)

③含义:值越大,样本集合用属性A来进行划分所获得的“纯度提升”越大,信息增益大的特征具有更强的分类能力。

信息增益率→C4.5算法
基尼指数→CART算法

信息增益和增益率越大越好,基尼指数越小越好。

4)ID3算法的核心是在决策树各个结点上应用信息增益准则选择特征,递归地构建决策树

三、决策树的剪枝

1)在决策树学习中将已生成的树进行简化的过程称为剪枝,通过极小化决策树整体的损失函数或代价函数来实现。

2)分类:预剪枝、后剪枝
在这里插入图片描述
两者对比:
在这里插入图片描述

四、随机森林

定义:随机森林就是通过集成学习的思想将多棵树集成的一种算法,它的基本单元是决策树,而它的本质属于集成学习方法。
在这里插入图片描述

以上是关于机器学习笔记五 决策树的主要内容,如果未能解决你的问题,请参考以下文章

学习笔记 | 机器学习 决策树

《机器学习》第三章 决策树学习 笔记加总结

机器学习笔记-决策树

机器学习3—决策树学习笔记

《机器学习实战》第3章 决策树 学习笔记

《机器学习》(周志华)第4章 决策树 笔记 理论及实现——“西瓜树”——CART决策树