机器学习-朴素贝叶斯原理及Python实现
Posted 嘣嘣嚓
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习-朴素贝叶斯原理及Python实现相关的知识,希望对你有一定的参考价值。
机器学习-朴素贝叶斯原理及Python实现
贝叶斯公式
P(A|B) = (P(B|A)P(A))/P(B)
举例:苹果10个,有2个黄色;梨10个,有6个黄色,求拿出一个黄色水果,是苹果的概率。
代入公式:
P(苹果|黄色) = (P(黄色|苹果)P(苹果))/P(黄色)
P(黄色) = (2+6)/20 = 2/5
P(苹果) = 10/20 = 1/2 = 0.5
P(黄色|苹果)=1/5
P(黄色|苹果)P(苹果) = P(黄色,苹果) = 1/5*1/2 = 1/10 = 0.1
P(苹果|黄色) = 0.1/0.5=0.2
朴素贝叶斯是一种十分简单的分类算法,称其朴素是因为其思想基础的简单性:就文本而言,它认为词袋中的两两词之间的关系是相互独立的,即一个对象的特征向量中每个维度都是相互独立的。
黄色是苹果和梨共有的属性,但苹果和梨是相互独立的。
朴素贝叶斯的正式定义如下:
(1)设x = {a1,a2,....,am}为一个待分类项,而每个a为x的一个特征属性。
(2)有类别集合 C = {y1,y2,...yn}
(3)计算P(y1|x),P(y2|x),...P(yn|x).
(4)如果P(yk|x) = max(P(y1|x),P(y2|x),...P(yn|x)),则x∈yk.
关键就是计算第(3)步中的各个条件概率,可按照以下步骤计算
(1)找到一个已知分类的待分类项集合,也就是训练集。
(2)统计得到在各类别下各个特征属性的条件概率估计。即:
P(a1|y1),P(a2|y1),...P(am|y1);
P(a1|y2),P(a2|y2),...P(am|y2);
P(a1|y1),P(a2|yn),...P(am|yn);
(3)如果各个特征属性是条件独立的(或者假设它们之间是相互独立的),则根据贝叶斯定理有如下推导
P(yi|x) = (P(x|yi)P(yi))/P(x)
因为分母对于所有类别为常熟,只要将分子最大化即可。又因为各特征属性是条件独立的,所以又
P(x|yi)P(yi) = P(a1|yi)P(a2|yi)...P(am|yi)P(yi)
根据上述分析,朴素贝叶斯分类的流程可以表示如下:
第一阶段:训练数据生成训练样本集:TF-IDF
第二阶段:对每个类别计算P(yi)
第三阶段:对每个特征属性计算所有划分的条件概率
第四阶段:对每个类别计算P(x|yi)P(yi)
第五阶段:以P(x|yi)P(yi)的最大项作为x的所属类别。
代码:
import numpy as np class NBayes(object): # 1.默认构造方法 def __init__(self): self.vocabulary = [] # 词典 self.idf = 0 # 词典的IDF权值向量 self.tf = 0 # 训练集的权值矩阵 self.tdm = 0 # P(x|yi) self.Pcates = {} # P(yi)是一个类别字典 self.labels = [] # 对应每个文本的分类,是一个外部导入的列表 self.doclength = 0 # 训练集文本数 self.vocablen = 0 # 词典词长 self.testset = 0 # 测试集 # 2.导入和训练数据集,生成算法必须的参数和数据结构 def train_set(self, trainset, classVec): self.cate_prob(classVec) # 计算每个分类在数据集中的概率P(yi) self.doclength = len(trainset) tempset = set() [tempset.add(word) for doc in trainset for word in doc] # 生成词典 self.vocabulary = list(tempset) self.vocablen = len(self.vocabulary) self.calc_wordfreq(trainset) # 计算词频数据集 self.build_tdm() # 按分类累计向量空间的每维值P(x|yi) # 3.cate_prob函数:计算在数据集中每个分类的概率P(yi) def cate_prob(self,classVec): self.labels = classVec labeltemps = set(self.labels) # 获取全部分类 for labeltemp in labeltemps: # 统计列表中重复的分类:self.labels.count(labeltemp) self.Pcates[labeltemp] = float(self.labels.count(labeltemp)) / float(len(self.labels)) # 4.calc_wordfreq函数:生成普通的词频向量 def calc_wordfreq(self, trainset): self.idf = np.zeros([1, self.vocablen]) # 1*字典数 self.tf = np.zeros([self.doclength, self.vocablen]) # 训练集文件数 * 词典数 for indx in range(self.doclength): # 遍历所有的文本 for word in trainset[indx]: # 遍历文本中的每个词 # 找到文本的词在字典中的位置+1 self.tf[indx, self.vocabulary.index(word)] += 1 for signleword in set(trainset[indx]): self.idf[0,self.vocabulary.index(signleword)] += 1 # 5.build_tdm函数:按分类累计计算向量空间的每维值P(x|yi) def build_tdm(self): self.tdm = np.zeros([len(self.Pcates), self.vocablen]) # 类别行 * 词典列 sumlist = np.zeros([len(self.Pcates), 1]) # 统计每个分类的总值 for indx in range(self.doclength): # 将同一类别的词向量空间值加总 self.tdm[self.labels[indx]] += self.tf[indx] # 统计每个分类的总值--是一个标量 sumlist[self.labels[indx]] = np.sum(self.tdm[self.labels[indx]]) self.tdm = self.tdm / sumlist # 生成P(x|yi) # 6.map2vocab函数:将测试集映射到当前词典 def map2vocab(self, testdata): self.testset = np.zeros([1,self.vocablen]) for word in testdata: self.testset[0, self.vocabulary.index(word)] += 1 # 7.predict函数:预测分类结果,输出预测的分类类别 def predict(self, testset): if np.shape(testset)[1] != self.vocablen: # 如果测试集长度与词典不相等,则退出程序 print(‘输入错误‘) exit(0) predvalue = 0 # 初始化类别概率 predclass = "" # 初始化类别名称 for tdm_vect, keyclass in zip(self.tdm, self.Pcates): # P(x|yi)P(yi),变量tdm,计算最大分类值 temp = np.sum(testset * tdm_vect * self.Pcates[keyclass]) if temp > predvalue: predvalue = temp predclass = keyclass return predclass from numpy import * import numpy as np def loadDataSet(): # 训练集文本 postingList = [ [‘my‘, ‘dog‘, ‘has‘, ‘flea‘, ‘problems‘, ‘help‘, ‘please‘], [‘maybe‘, ‘not‘, ‘take‘, ‘him‘, ‘to‘, ‘dog‘, ‘park‘, ‘stupid‘], [‘my‘, ‘dalmation‘, ‘is‘, ‘so‘, ‘cute‘, ‘I‘, ‘love‘, ‘him‘, ‘my‘], [‘stop‘, ‘posting‘, ‘stupid‘, ‘worthless‘, ‘garbage‘], [‘mr‘, ‘licks‘, ‘ate‘, ‘my‘, ‘steak‘, ‘how‘, ‘to‘, ‘stop‘, ‘him‘], [‘quit‘, ‘buying‘, ‘worthless‘, ‘dog‘, ‘food‘, ‘stopid‘] ] # 每个文本对应的分类 classVec = [0, 1, 0, 1, 0, 1] return postingList,classVec # 导入外部数据集 # dataset:句子的词向量,listClasses:是句子所属的类别 dataset, listClasses = loadDataSet() nb = NBayes() # 实例化 nb.train_set(dataset, listClasses) # 训练数据集 nb.map2vocab(dataset[0]) # 随机选择一个测试句 print(nb.predict(nb.testset))
以上是关于机器学习-朴素贝叶斯原理及Python实现的主要内容,如果未能解决你的问题,请参考以下文章
机器学习实战3:基于朴素贝叶斯实现单词拼写修正器(附Python代码)
机器学习强基计划4-3:详解朴素贝叶斯分类原理(附例题+Python实现)