机器学习10贝叶斯

Posted renshenbenzuig

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习10贝叶斯相关的知识,希望对你有一定的参考价值。

1.理解分类与监督学习、聚类与无监督学习。

简述分类与聚类的联系与区别。

联系:分类与聚类都是在数据集中寻找离自己最近的点

区别:分类是一种有监督学习,目的是为了确定点的类别,而类别是已知的;聚类是一种无监督学习,目的是将点分为成若干个类,事先是没有类别的。

简述什么是监督学习与无监督学习。

 监督学习:在监督学习中的数据是带有标签的,知道输入和输出结果之间的关系,通过训练得到一个最优的模型

无监督学习:在无监督学习中数据是没有标签·的,不清楚数据、特征之间的关系,比起监督学习,无监督学习更像是让机器学会自己做事,自学

 

2.朴素贝叶斯分类算法 实例

利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。

有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数

目标分类变量疾病:

–心梗

–不稳定性心绞痛

新的实例:–(性别=‘男’,年龄<70, KILLP=‘I‘,饮酒=‘是’,吸烟≈‘是”,住院天数<7)

最可能是哪个疾病?

上传手工演算过程。

 

性别

年龄

KILLP

饮酒

吸烟

住院天数

疾病

1

>80

1

7-14

心梗

2

70-80

2

<7

心梗

3

70-81

1

<7

不稳定性心绞痛

4

<70

1

>14

心梗

5

70-80

2

7-14

心梗

6

>80

2

7-14

心梗

7

70-80

1

7-14

心梗

8

70-80

2

7-14

心梗

9

70-80

1

<7

心梗

10

<70

1

7-14

心梗

11

>80

3

<7

心梗

12

70-80

1

7-14

心梗

13

>80

3

7-14

不稳定性心绞痛

14

70-80

3

>14

不稳定性心绞痛

15

<70

3

<7

心梗

16

70-80

1

>14

心梗

17

<70

1

7-14

心梗

18

70-80

1

>14

心梗

19

70-80

2

7-14

心梗

20

<70

3

<7

不稳定性心绞痛

设置发生心梗的概率为X
设置发生不稳定性心绞痛为Y
设置发生(性别=‘男’,年龄<70, KILLP=‘I‘,饮酒=‘是’,吸烟≈‘是”,住院天数<7)的为Z

P(X)=16/20
P(男|X)=7/16
P(年龄<70|X)= 1/4
P(KILLP=I|X)= 9/16
P(饮酒|X)= 3/16
P(吸烟|X)= 7/16
P(住院天数<7|X)= 1/4

P(Y)=4/20
P(男|Y)=1/4
P(年龄<70|Y)= 1/4
P(KILLP=I|Y)= 1/4
P(饮酒|Y)= 1/4
P(吸烟|Y)= 1/2
P(住院天数<7|Y)= 1/2

P(Z)=8/20 * 5/20 * 10/20 * 4/20 * 9/20 * 6/20=54/40000

根据贝叶斯公式
P(X|Z)=P(Z|X)P(X)/P(Z)
=((7/16 * 4/16 * 9/16 * 3/16 * 7/16 * 4/16) * 16/20) / (54/40000) 
≈75%

同理
P(Y|Z)=P(Z|Y)P(Y)/P(Z)
=((1/4 * 1/4 * 1/4 * 1/4 * 1/2 * 1/2) *4/20)/ (54/40000) 
≈15%

P(X|Z)>P(Y|Z)
故应该为心梗

  

3.使用朴素贝叶斯模型对iris数据集进行花分类。

尝试使用3种不同类型的朴素贝叶斯:

  • 高斯分布型
  • 多项式型
  • 伯努利型

并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split,cross_val_score
from sklearn.naive_bayes import GaussianNB,MultinomialNB,BernoulliNB
from sklearn import metrics

#数据处理
data=load_iris()
x = data[data]
y = data[target]
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3,random_state=5)

#高斯分布型
gnb=GaussianNB()
gnb.fit(x_train,y_train)
print("----------------高斯分布型------------------")
print(准确率指标:,metrics.accuracy_score(y_test,gnb.predict(x_test)))
print(交叉验证后:,cross_val_score(gnb,x_test,y_test,cv=10).mean())

print("----------------多项式型------------------")
mnb=MultinomialNB()
mnb.fit(x_train,y_train)
print(准确率指标:,metrics.accuracy_score(y_test,mnb.predict(x_test)))
print(交叉验证后:,cross_val_score(mnb,x_test,y_test,cv=10).mean())

print("----------------伯努利型------------------")
bnb=BernoulliNB()
bnb.fit(x_train,y_train)
print(准确率指标:,metrics.accuracy_score(y_test,bnb.predict(x_test)))
print(交叉验证后:,cross_val_score(bnb,x_test,y_test,cv=10).mean())

技术图片

 

以上是关于机器学习10贝叶斯的主要内容,如果未能解决你的问题,请参考以下文章

贝叶斯机器学习:经典模型与代码实现!

机器学习-朴素贝叶斯原理及Python实现

机器学习:贝叶斯分类器——高斯朴素贝叶斯分类器代码实现

机器学习贝叶斯算法详解 + 公式推导 + 垃圾邮件过滤实战 + Python代码实现

机器学习——朴素贝叶斯算法

Python机器学习(十五)朴素贝叶斯算法原理与代码实现