机器学习贝叶斯算法详解 + 公式推导 + 垃圾邮件过滤实战 + Python代码实现
Posted WSKH0929
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习贝叶斯算法详解 + 公式推导 + 垃圾邮件过滤实战 + Python代码实现相关的知识,希望对你有一定的参考价值。
文章目录
一、贝叶斯简介
贝叶斯主要解决的问题是“逆概”问题,那么什么是正向概率什么是逆向概率呢,下面给出解释:
二、贝叶斯公式推导
贝叶斯定理由英国数学家贝叶斯 ( Thomas Bayes 1702-1761 ) 发展,用来描述两个条件概率之间的关系,比如 P(A|B) 和 P(B|A)。按照乘法法则,可以立刻导出:P(A∩B) = P(A)*P(B|A)=P(B)*P(A|B)。如上公式也可变形为:P(A|B)=P(B|A)*P(A)/P(B)。
下面举一个例子来推导贝叶斯公式:
解答如下:
最终得到贝叶斯公式如下:
P ( A ∣ B ) = P ( A ) × P ( B ∣ A ) P ( B ) P(A|B)=\\fracP(A)×P(B|A)P(B) P(A∣B)=P(B)P(A)×P(B∣A)
三、拼写纠正案例
问题描述如下:
例如,用户拼写 thr ,我们猜测他可能想拼写 the
根据贝叶斯公式,我们可以得到如下结论:
由于用户实际输入的单词是已知的,所以P(D)是一个常数,所以上式的P(D)其实可以忽略。
P(h)是我们猜测词可能出现的概率,这个概率可以通过从一个庞大的语料库中统计获取
P(D|h)是当用户实际像输入的词是h时,用户输入D的概率。假设D是thr,h是the,那么P(D|h)我们可以通过计算thr要通过多少步的增删改操作才能变为the,所需要的步数越少,P(D|h)概率越大。
其中,P(h)又叫先验概率,是我们从庞大语料库中可以获取到的已知概率
贝叶斯和最大似然的区别在于,最大似然的结果由数据决定,而贝叶斯的结果由先验概率决定。例如,抛硬币游戏,前一百次都抛了正面,最大似然会认为下一次抛肯定还是正面。但是贝叶斯由于有先验概率的存在,无论如何他都认为下一次抛出正面的概率是0.5。
四、垃圾邮件过滤案例
4.1 问题描述
问题的相关描述如下:
4.2 朴素贝叶斯引入
一封邮件里有很多单词,从实际出发,第二个词出现的概率其实是受第一个词的影响的。所以将P(d1,d2,…,dn|h+)扩展之后的公式如下所示:
像上面那样展开的话就会导致计算非常复杂,为了简化计算,我们可以假设相邻词之间是独立无关的,这样就可以将展开后的式子简化为下图所示的式子(朴素贝叶斯就是比贝叶斯多了独立无关这个假设):
五、基于朴素贝叶斯的垃圾邮件过滤实战
本章节的完整代码和邮件数据集的链接为:Python代码实现基于朴素贝叶斯算法的垃圾邮件分类
5.1 导入相关库
import numpy as np
import re
import random
5.2 邮件数据读取
下面是数据集的截图(每一行代表一封邮件),格式为:邮件类别
\\t
邮件内容
# 数据预处理操作(词的切分、词转化为小写)
def text_parse(input_str):
word_list = re.split(r"\\W+", input_str)
return [word.lower() for word in word_list if len(word_list) > 2 and len(word) > 0]
# 获取数据
def read_data():
doc_list = []
class_list = []
with open("./data/SMS.txt", "r", encoding="utf-8") as file:
datas = file.read()
# print(data)
datas = datas.split("\\n")
for data in datas:
# label = ham 代表 正常邮件 , label = spam 代表垃圾邮件
label, text = data.split("\\t")
doc_list.append(text_parse(text))
# 0:正常邮件,1:垃圾邮件
class_list.append(0 if label == "ham" else 1)
return doc_list, class_list
5.3 构建语料表(字典)
# 构建语料表
def create_vocabulary_list(doc_list):
vocabulary_set = set([])
for document in doc_list:
vocabulary_set = vocabulary_set | set(document)
return list(vocabulary_set)
5.4 构建训练集的特征向量
# 将一篇邮件转化为 类似 One-Hot 的向量,长度和 vocabulary_list 一样,为 1 的位置代表该单词在该邮件中出现了
def set_of_word2vector(vocabulary_list, document):
vec = [0 for _ in range(len(vocabulary_list))]
for word in document:
index = vocabulary_list.index(word)
if index >= 0:
vec[index] = 1
return vec
train_matrix = []
train_class = []
for train_index in train_index_set:
train_matrix.append(set_of_word2vector(vocabulary_list, doc_list[train_index]))
train_class.append(class_list[train_index])
5.5 朴素贝叶斯算法计算概率
回顾一下,我们用贝叶斯算法进行垃圾邮件分类时,其实就是比较 P ( h + ∣ D ) P(h_+|D) P(h+∣D) 和 P ( h − ∣ D ) P(h_-|D) P(h−∣D) 的大小,如果 P ( h + ∣ D ) P(h_+|D) P(h+∣D) 大,则表示该邮件更有可能是垃圾邮件,否则更有可能是正常邮件。
P ( h + ∣ D ) = P ( h + ) × P ( D ∣ h + ) ÷ P ( D ) P ( h − ∣ D ) = P ( h − ) × P ( D ∣ h − ) ÷ P ( D ) P(h_+|D)=P(h_+)×P(D|h_+)\\div P(D) \\\\ P(h_-|D)=P(h_-)×P(D|h_-)\\div P(D) P(h+∣D)=P(h+)×P(D∣h+)÷P(D)P(h−∣D)=P(h−)×P(D∣h−)÷P(D)
又因为,在针对某封邮件做预测时, P ( D ) P(D) P(D) 可以看作常数,因而可以忽略,从而得到简化后的公式如下(其实下面式子写等号不严谨,应该是正比于,但是为了方便,后面都将正比于简化为等号):
P ( h + ∣ D ) = P ( h + ) × P ( D ∣ h + ) P ( h − ∣ D ) = P ( h − ) × P ( D ∣ h − ) P(h_+|D)=P(h_+)×P(D|h_+) \\\\ P(h_-|D)=P(h_-)×P(D|h_-) P(h+∣D)=P(h+)×P(D∣h+)P(h−∣D)=P(h−)×P(D∣h−)
其中, P ( h + ) P(h_+) P(h+) 为训练集中垃圾邮件的比率, P ( h − ) P(h_-) P(h−)为训练集中正常邮件的比率,它们两个就是先验概率。
显然,
P
(
h
+
)
+
P
(
h
−
)
=
1
P(h_+) + P(h_-) = 1
P(h+)+P(h−)=1,因此,下面我们可以只计算
P
(
h
+
)
P(h_+)
P(h+),用变量 p_spam
表示,
P
(
h
+
)
P(h_+)
P(h+) 可以根据训练集很轻易地得到
又因为朴素贝叶斯假设任意两个词之间是独立无关的,所以可以将 P ( D ∣ h + ) P(D|h_+) P(D∣h+) 和 P ( D ∣ h − ) P(D|h_-) P(D∣h−) 展开如下:
P ( D ∣ h + ) = P ( d 1 ∣ h + ) × P ( d 2 ∣ h + ) × . . . × P ( d n ∣ h + ) P ( D ∣ h − ) = P ( d 1 ∣ h − ) × P ( d 2 ∣ h − ) × . . . × P ( d n ∣ h − ) P(D|h_+) = P(d_1|h_+)×P(d_2|h_+)×...×P(d_n|h_+)\\\\ P(D|h_-) = P(d_1|h_-)×P(d_2|h_-)×...×P(d_n|h_-) P(D∣h+)=P(d1∣h+)×P(d2∣h+)×...×P(dn∣h+)P(D∣h−)=P(d1∣h−)×P(d2∣h−)×...×P(dn∣h−)
其中 d n d_n 实现 | 朴素贝叶斯模型算法研究与实例分析
机器学习算法整理— 贝叶斯算法_拼写纠正实例_垃圾邮件过滤实例