机器学习实战Ch03: 决策树

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习实战Ch03: 决策树相关的知识,希望对你有一定的参考价值。

相比kNN的无脑比较相似度,我们需要一种能够较清晰地给出数据内在含义的分类器。

这一章给出了“决策树”这种选择,这一概念本身不难理解,问题在于 在树的每一层如何划分数据集能达到最好的效果

(书中选用的是ID3算法,虽然不是很理解这个名字,但算法本身不是很难理解)

 

这里的效果,我们引入信息熵这个概念进行衡量

对于一个数据集中的各个标签特征xi,我们给出该类别信息熵的公式

技术分享

 

 

那么相应的按概率为权重,对数据集计算其信息熵

技术分享

而对于整个数据集而言,其信息熵是分类特征yi取到的概率p(yi)*H(subDataSet(yi))

其中subDataSet(yi)为dataSet中分类特征对应为yi的子数据集

简单来讲,一个数据集划分后的信息熵为

技术分享

 

然后我们开始构建决策树的第一步,寻找当前最佳的划分标准

 1 def chooseBestFeatureToSplit(dataSet):
 2     numFeatures = len(dataSet[0]) - 1
 3     baseEntropy = calcShannonEnt(dataSet)
 4     bestInfoGain = 0.0
 5     bestFeature = -1
 6     for i in range(numFeatures):
 7         #利用推导式提取出dataSet的第i列特征值
 8         featList = [example[i] for example in dataSet]
 9         uniqueVals = set(featList)
10         newEntropy = 0.0
11         for value in uniqueVals:
12             subDataSet = splitDataSet(dataSet, i, value)
13             prob = len(subDataSet)/float(len(dataSet))
14             newEntropy += prob * calcShannonEnt(subDataSet)
15         #比较信息熵的差值,取信息熵下降效果最明显的特征
16         infoGain = baseEntropy - newEntropy
17         if (infoGain > bestInfoGain):
18             bestInfoGain = infoGain
19             bestFeature = i
20     return bestFeature

构建决策树本身的代码并不难理解,只是简单的递归实现

但用字典储存树这种奇技淫巧,可以学习一下

 1 def createTree(dataSet,labels):
 2     classList = [example[-1] for example in dataSet]
 3     if (classList.count(classList[0]) == len(classList)): return classList[0]
 4     if (len(dataSet[0]) == 1): return majorityCnt(classList)
 5     bestFeat = chooseBestFeatureToSplit(dataSet)
 6     bestFeatLabel = labels[bestFeat]
 7     myTree = {bestFeatLabel:{}}
 8     del(labels[bestFeat])
 9     featValues = [example[bestFeat] for example in dataSet]
10     uniqueVals = set(featValues)
11     for value in uniqueVals:
12         subLabels = labels[:]
13         myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value),subLabels)
14     return myTree

注意一下3,4行对应的两种特殊情况

1)标签特征在该子数据集中已经清一色了,没有继续划分的必要了

2)已经用所有特征划分过了数据集,标签特征却还是不是清一色,启动投票机制(少数服从多数) 

 

用pyplot绘制树我决定还是先放着...

好麻烦啊orz

mark一下以后补上 

 

以上是关于机器学习实战Ch03: 决策树的主要内容,如果未能解决你的问题,请参考以下文章

机器学习实战python3 决策树ID3

机器学习实战教程:决策树实战篇

机器学习实战笔记--决策树

机器学习实战--第三章决策树

《机器学习实战》-决策树

机器学习实战笔记(Python实现)-02-决策树