为啥标准化朴素贝叶斯后验概率

Posted

技术标签:

【中文标题】为啥标准化朴素贝叶斯后验概率【英文标题】:Why normalize Naive Bayes posterior probability为什么标准化朴素贝叶斯后验概率 【发布时间】:2020-12-24 10:44:36 【问题描述】:

我想了解为什么有必要对后验进行归一化。 如果我对朴素贝叶斯定理的理解有误,请纠正我。

在公式中

P(B|A) = P(A|B)*P(B) / P(A)

RHS 概率是根据训练数据计算得出的 P(A|B) 其中 A 是输入特征,B 是目标类 P(B) 是正在考虑的目标类别的概率,并且 P(A) 是输入特征的概率。

计算出这些先验概率后,您将获得测试数据,并根据测试数据的输入特征计算目标类概率,即 P(B|A)(我猜这称为后验概率)。

现在在一些视频中,他们教导说,在此之后您必须对 P(B|A) 进行归一化以获得该目标类的概率。

为什么有必要。难道P(B|A)本身不是目标类的概率吗?

【问题讨论】:

【参考方案1】:

原因很简单:

在朴素贝叶斯中,您的目标是找到最大化后验概率的类,所以基本上,您想要最大化这个公式的Class_j

因为我们做了独立的假设,我们可以这样翻译P(x|Class_j)分子部分:

比公式中的分子可以变成这样:

因为每个类的分母P(x)都是一样的,所以在最大值计算中基本上可以省略这一项:

但由于分子本身并不代表您的特定概率(省略 P(x)),因此您需要除以该数量。

一些使用过的参考:

http://shatterline.com/blog/2013/09/12/not-so-naive-classification-with-the-naive-bayes-classifier/ https://www.globalsoftwaresupport.com/naive-bayes-classifier-explained-step-step/

【讨论】:

以上是关于为啥标准化朴素贝叶斯后验概率的主要内容,如果未能解决你的问题,请参考以下文章

机器学习—朴素贝叶斯

朴素贝叶斯的理解

R语言机器学习 | 6 朴素贝叶斯

朴素贝叶斯法

统计学习方法——朴素贝叶斯法先验概率后验概率

007:朴素贝叶斯