08 决策树与随机森林

Posted hp-lake

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了08 决策树与随机森林相关的知识,希望对你有一定的参考价值。

08 决策树与随机森林

决策树之信息论基础

认识决策树

  1. 来源: 决策树的思想来源非常朴素,程序设计中的条件分支结构就是if - then 结构,最早的决策树就是利用这类结构分割数据的一种分类学习方法。

  2. 举例:是否见相亲对象
    技术图片

信息的度量和作用

  1. 克劳德 .艾尔伍德 .香农:信息论创始人,密西根大学学士,麻省理工学院博士。 1948年发表了划时代论文 - 通信的数学原理,奠定了现代信息论的基础。
  2. 信息的单位: 比特 (bit)
    技术图片

  3. 举例: 以32支球队争夺世界杯冠军
  • 如果不知道任何球队的信息,每支球队得冠概率相等。
    以二分法预测,最少需要使用5次才能预测到准确结果。 5 = log32 (以2为底)
    5 = -(1/32log1/32 + 1/32log1/32 + ......)

  • 开放一些信息,则小于5bit, 如1/6 德国,1/6 巴西, 1/10 中国
    5 > -(1/6log1/4 + 1/6log1/4 + ....)

  1. 信息熵:
  • “谁是世界杯冠军”的信息量应该比5 bit少, 它的准确信息量应该是:
  • H = -(p1logp1 + p2logp2 + p3logp3 +......p32logp32 ) Pi 为第i支球队获胜的概率
  • H 的专业术语就是信息熵,单位为比特
    技术图片

决策树的划分以及案例

信息增益

  1. 定义: 特征A对训练数据集D的信息增益g(D,A), 定义为集合D的信息熵H(D)与特征A给定条件下D的信息条件熵H(D|A) 之差,即:
    g(D,A) = H(D) - H(D | A)
    注: 信息增益表示得知特征 X 的信息而使得类 Y的信息的不确定性减少的程度。
    技术图片

  2. 以不同特征下的信贷成功率为例
    技术图片

  • H(D) = -(9/15log(9/15) + 6/15log(6/15)) = 0.971 # 以类别进行判断,只有是否两种类别
  • gD,年纪) = H(D) - H(D‘|年纪) = 0.971 - [1/3H(青年)+ 1/3H(中年)+ 1/3H(老年)] # 三种年纪对应的目标值均占1/3
    - H(青年) = -(2/5log(2/5) + 3/5log(3/5)) # 青年类型中,类别的目标值特征为(2/5, 3/5)
    - H(中年) = -(2/5log(2/5) + 3/5log(3/5))
    - H(老年) = -(4/5log(2/5) + 1/5log(3/5))

令A1, A2, A3, A4 分别表示年龄,有工作,有房子和信贷情况4个特征,则对应的信息增益为:
g(D,A1) = H(D) - H(D|A1)
其中,g(D,A2) = 0.324 , g(D,A3) = 0.420 , g(D,A4) = 0.363
相比而言,A3特征(有房子)的信息增益最大,为最有用特征。
所以决策树的实际划分为:
技术图片

常见决策树使用的算法

  1. ID3
  • 信息增益,最大原则
  1. C4.5
  • 信息增益比最大原则 (信息增益占原始信息量的比值)
  1. CART
  • 回归树: 平方误差最小
  • 分类树: 基尼系数最小原则 (划分的细致),sklearn默认的划分原则

Sklearn决策树API

  1. sklearn.tree.DecisionTreeClassifier(criterion=‘gini‘, max_depth=None, random_state=None)
  • criterion (标准): 默认基尼系数,也可以选用信息增益的熵‘entropy’
  • max_depth: 树的深度大小
  • random_state: 随机数种子
  1. 决策树结构
    sklearn.tree.export_graphviz() 导出DOT文件格式
  • estimator: 估算器
  • out_file = "tree.dot" 导出路径
  • feature_name = [,] 决策树特征名

决策树预测泰坦尼克号案例

import pandas as pd
from sklearn.feature_extraction import DictVectorizer
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier, export_graphviz

"""
泰坦尼克数据描述事故后乘客的生存状态,该数据集包括了很多自建旅客名单,提取的数据集中的特征包括:
票的类别,存货,等级,年龄,登录,目的地,房间,票,船,性别。
乘坐等级(1,2,3)是社会经济阶层的代表,其中age数据存在缺失。
"""


def decision():
    """
    决策树对泰坦尼克号进行预测生死
    :return: None
    """
    # 1.获取数据
    titan = pd.read_csv('./titanic_train.csv')

    # 2.处理数据,找出特征值和目标值
    x = titan[['Pclass', 'Age', 'Sex']]
    y = titan[['Survived']]
    # print(x)

    # 缺失值处理 (使用平均值填充)
    x['Age'].fillna(x['Age'].mean(), inplace=True)
    print(x)
    # 3.分割数据集到训练集和测试集
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)

    # 4. 进行处理(特征工程) 特征,类别 --> one_hot编码
    dict = DictVectorizer(sparse=False)
    x_train = dict.fit_transform(x_train.to_dict(orient='records'))
    print(dict.get_feature_names())
    x_test = dict.transform(x_test.to_dict(orient='records'))  # 默认一行一行转换成字典
    print(x_train)

    # 5. 用决策树进行预测
    dec = DecisionTreeClassifier()
    dec.fit(x_train, y_train)

    # 预测准确率
    print("预测的准确率:", dec.score(x_test, y_test))

    # 导出决策树
    export_graphviz(dec, out_file='./tree.dot', feature_names=['Pclass', 'Age', 'Sex'])
    return None


if __name__ == '__main__':
    decision()

以上是关于08 决策树与随机森林的主要内容,如果未能解决你的问题,请参考以下文章

机器学习:通俗易懂决策树与随机森林及代码实践

决策树与随机森林

决策树与随机森林实例

决策树、随机森林

机器学习-7.决策树与随机森林

决策树与随机森林