class-朴素贝叶斯NaiveBayes

Posted sxzhou

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了class-朴素贝叶斯NaiveBayes相关的知识,希望对你有一定的参考价值。

1 朴素贝叶斯法的学习与分类

Naive Bayes是基于贝叶斯定理和特征条件独立的假设的分类方法。对于给定的训练数据,首先基于特征条件独立学习输入和输出的联合概率分布,然后基于此模型,对给定的输入x利用贝叶斯定理求出后验概率最大的y。

1.1 基本原理

这里一张手写推导:
技术分享图片
而这个P(ck|X=x)甚至可以是频率来估计。看下节部分。

2 参数估计

2.1 极大似然估计

先验概率P(Y=ck)的极大似然估计:
技术分享图片
条件概率极大似然估计:
技术分享图片

 

 

2.2 算法

 

技术分享图片
技术分享图片

2.3 贝叶斯估计

贝叶斯估计解决的问题:极大似然估计可能会出现所要估计的概率值为0的情况,使得后验概率出现偏差。
条件概率的贝叶斯估计是:
技术分享图片
lambda>=0,相当于极大似然估计的每一个变量加上一个lambda,为0就是极大似然估计,常用值为1,这时称为拉普拉斯平滑(Laplace smoothing)。
证明其仍然为概率:
技术分享图片
先验概率的贝叶斯估计为:
技术分享图片
其中K是集合y中元素的个数,lambda是在Sigma之外的,不在连加符号内。
注意:Naive Bayes method是从训练数据学得P(X,Y)【P由P(X|Y)*P(Y)而得】生成的方法,是生成模型,有一个强假设:条件独立性。

注意:朴素贝叶斯法和贝叶斯估计不同的。





















以上是关于class-朴素贝叶斯NaiveBayes的主要内容,如果未能解决你的问题,请参考以下文章

朴素贝叶斯-垃圾邮件分类实现

手写算法实现 之 朴素贝叶斯 Naive Bayes 篇

手写算法实现 之 朴素贝叶斯 Naive Bayes 篇

Numpy实现NaiveBayes(朴素贝叶斯)

朴素贝叶斯算法的案例实现

学习机器学习:朴素贝叶斯和文本分类