第十次 11.分类与监督学习,朴素贝叶斯分类算法

Posted a131452

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了第十次 11.分类与监督学习,朴素贝叶斯分类算法相关的知识,希望对你有一定的参考价值。

1.理解分类与监督学习、聚类与无监督学习。

简述分类与聚类的联系与区别。

区别:

分类的目的是为确定一个点的类别,具体有哪些类别是已知的,常用算法是KNN,是一种有监督学习。

聚类的目的是将一系列点分为若干类,事先是没有类别的,常用算法是K-Means,是一种无监督学习。

联系:

两种的实现都包含这样一个过程:对于想要分析的目标点,都会在数据集中寻找离他最近的点,即两者都用到了NN算法。

 

简述什么是监督学习与无监督学习。

  监督学习:是人们常说的分类,通过已有的训练样本(即已知数据以及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的,也就具有了对未知数据进行分类的能力。

无监督学习:是另一种研究的比较多的学习方法,它与监督学习的不同之处,在于我们事先没有任何训练样本,而需要直接对数据进行建模。

 技术图片

 

 

 

2.朴素贝叶斯分类算法 实例

利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。

有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数

目标分类变量疾病:

–心梗

–不稳定性心绞痛

新的实例:–(性别=‘男’,年龄<70, KILLP=‘I‘,饮酒=‘是’,吸烟≈‘是”,住院天数<7)

最可能是哪个疾病?

上传手工演算过程。

 

性别

年龄

KILLP

饮酒

吸烟

住院天数

疾病

1

>80

1

7-14

心梗

2

70-80

2

<7

心梗

3

70-81

1

<7

不稳定性心绞痛

4

<70

1

>14

心梗

5

70-80

2

7-14

心梗

6

>80

2

7-14

心梗

7

70-80

1

7-14

心梗

8

70-80

2

7-14

心梗

9

70-80

1

<7

心梗

10

<70

1

7-14

心梗

11

>80

3

<7

心梗

12

70-80

1

7-14

心梗

13

>80

3

7-14

不稳定性心绞痛

14

70-80

3

>14

不稳定性心绞痛

15

<70

3

<7

心梗

16

70-80

1

>14

心梗

17

<70

1

7-14

心梗

18

70-80

1

>14

心梗

19

70-80

2

7-14

心梗

20

<70

3

<7

不稳定性心绞痛

计算过程:

 技术图片

 

3.使用朴素贝叶斯模型对iris数据集进行花分类。

尝试使用3种不同类型的朴素贝叶斯:

  • 高斯分布型
  • 多项式型
  • 伯努利型

并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。

 

from sklearn.datasets import load_iris  # 导入数据集
from sklearn.naive_bayes import GaussianNB, MultinomialNB, BernoulliNB  # 导入3种不同类型的朴素贝叶斯API
from sklearn.model_selection import cross_val_score  # 交叉验证

# 引入数据集
iris = load_iris()
# 分割数据集
x = iris[data]
y = iris[target]

# 高斯分布型
GNB_model = GaussianNB()  # 构建模型
GNB_model.fit(x, y)  # 训练模型
GNB_pre = GNB_model.predict(x)  # 预测模型
print("高斯分布型的朴素贝叶斯:")
print("模型准确率:", sum(GNB_pre == y)/len(x))
# 进行交叉验证
GNB_score = cross_val_score(GNB_model, x, y, cv=10)
print("交叉验证后模型的平均精度:%.2f
" % GNB_score.mean())

# 多项式型
MNB_model = MultinomialNB()  # 构建模型
MNB_model.fit(x, y)  # 训练模型
MNB_pre = MNB_model.predict(x)  # 预测模型
print("多项式型的朴素贝叶斯:")
print("模型准确率:", sum(MNB_pre == y)/len(x))
# 进行交叉验证
MNB_score = cross_val_score(MNB_model, x, y, cv=10)
print("交叉验证后模型的平均精度:%.2f
" % MNB_score.mean())

# 伯努利型
BNB_model = BernoulliNB()  # 构建模型
BNB_model.fit(x, y)  # 训练模型
BNB_pre = BNB_model.predict(x)  # 预测模型
print("伯努利型的朴素贝叶斯:")
print("模型准确率:", sum(BNB_pre == y)/len(x))
# 进行交叉验证
BNB_score = cross_val_score(BNB_model, x, y, cv=10)
print("交叉验证后模型的平均精度:%.2f
" % BNB_score.mean())

实验截图:

技术图片

 

 

以上是关于第十次 11.分类与监督学习,朴素贝叶斯分类算法的主要内容,如果未能解决你的问题,请参考以下文章

分类与监督学习,朴素贝叶斯分类算法

分类与监督学习,朴素贝叶斯分类算法

11.分类与监督学习,朴素贝叶斯分类算法

11.分类与监督学习,朴素贝叶斯分类算法

11.分类与监督学习,朴素贝叶斯分类算法

11.分类与监督学习,朴素贝叶斯分类算法