使用 Sklearn.naive_bayes.Bernoulli 的朴素贝叶斯分类器;如何使用模型进行预测?

Posted

技术标签:

【中文标题】使用 Sklearn.naive_bayes.Bernoulli 的朴素贝叶斯分类器;如何使用模型进行预测?【英文标题】:Naive Bayes Classifier using Sklearn.naive_bayes.Bernoulli; how to use model to predict? 【发布时间】:2018-07-30 00:17:13 【问题描述】:

我有一个包含如下训练数据集的文件:

sentence           F1 F2 F3 F4 F5 class
this is a dog      0  1  0  0  0  1   
i like cats        1  0  0  0  0  1 
go to the fridge   0  0  1  0  0  0
i drive a car      0  0  0  1  0  0
i dislike rabbits  0  0  0  0  1  1

我有一组句子。我想预测(在这个例子中,现实生活中的句子更长),每个句子中是否包含动物(类)。我为每个句子分配了特征 F1 = 句子中提到的猫,F2 = 句子中提到的狗,F3 = 句子中提到的冰箱,F4 = 句子中提到的汽车,F5 = 句子中提到的兔子,类是句中是否为动物)。

那么我有另一个包含句子列表的文件(测试数据集):

dolphins live in the sea
bears live in the woods
there is no milk left
where are the zebras

我想使用训练数据集(上面的特征矩阵)训练朴素贝叶斯分类器,然后使用在句子测试文件上制作的模型。我可以这样做吗?

我试过了:

import numpy as np
import sklearn.naive_bayes import BernoulliNB

sentence = []
feature1 = []
feature2 = []
feature3 = []
feature4 = []
feature5 = []
class_name = []

test_dataset = [line.strip() for line in open(sys.argv[2])]

for line in open(sys.argv[1]):
    line = line.strip().split('\t')
    sentence.append(line[0])
    feature1.append(line[1])
    feature2.append(line[2])
    feature3.append(line[3])
    feature4.append(line[4])
    feature5.append(line[5])
    class_name.append(line[6])

list_of_features = [feature1,feature2,feature3,feature4,feature5]

#I'm not sure if this is right: question 1 below
clf = BernoulliNB()
clf.fit(list_of_features,class_name)

# I'm not sure what goes in the next line: question 2 below
print clf.predict(??)

我有一些问题。

    当我将代码运行到句子 clf.fit 时,我得到了错误:

    文件“naive_bayes.py”,第 28 行,在 clf.fit(list_of_features,class_name) 文件“/usr/local/lib/python2.7/dist-packages/sklearn/naive_bayes.py”,第 527 行,适合 X, y = check_X_y(X, y, 'csr') 文件“/usr/local/lib/python2.7/dist-packages/sklearn/utils/validation.py”,第 520 行,在 check_X_y check_consistent_length(X, y) 文件“/usr/local/lib/python2.7/dist-packages/sklearn/utils/validation.py”,第 176 行,在 check_consistent_length "%s" % str(唯一)) ValueError:发现样本数量不一致的数组:[5 10]

但是当我计算列表的长度时,它们的长度似乎都一样?谁能解释我在这里做错了什么?

    我的第二个问题是,'print clf.predict()' 行读取 'print clf.predict(test_dataset)' 是否正确(即,我想要的句子列表,没有附加功能或类分配给 0 或 1 类;我现在无法测试这个,因为我似乎无法克服问题 1) 中的错误。

    作为旁注,一旦我最终可以让它发挥作用,以某种方式计算出预测器的准确性会很棒。但是,我正在努力让基础知识先发挥作用。

编辑 1:修改后的脚本

import numpy as np
from sklearn.naive_bayes import BernoulliNB
import sys

sentence = []
feature1 = []
feature2 = []
feature3 = []
feature4 = []
feature5 = []
class_name = []

for line in open(sys.argv[1]):
    line = line.strip().split('\t')
    sentence.append(line[0])
    feature1.append(int(line[1]))
    feature2.append(int(line[2]))
    feature3.append(int(line[3]))
    feature4.append(int(line[4]))
    feature5.append(int(line[5]))
    class_name.append(int(line[6]))

print feature1
print feature2
print feature3
print feature4
print feature5
print class_name


list_of_features = [feature1,feature2,feature3,feature4,feature5]
transpos_list_of_features = np.array(list_of_features).T
clf = BernoulliNB()
print clf.fit(transpos_list_of_features,class_name)
#print clf.predict(??)

输出:

[0, 1, 0, 0, 0, 0, 0, 0, 0, 0]
[0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
[1, 0, 1, 1, 1, 0, 0, 0, 0, 0]
[0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
[0, 0, 0, 0, 0, 0, 0, 1, 1, 1]
[0, 0, 0, 0, 0, 0, 0, 1, 1, 1]
BernoulliNB(alpha=1.0, binarize=0.0, class_prior=None, fit_prior=True)

【问题讨论】:

【参考方案1】:

1- 这里有几个问题。

首先,确保正确解析文件。如果您的火车文件与上述几行完全相同,那么您可能需要跳过第一行。它包含标题,不应在您的 X 或 Y 矩阵中。确保 feature 和 class_name 变量包含你想要的。您可以通过打印来检查它们。 sentence.append(line[0]) 我猜,你得到的是字符串 '0' 或 '1' 而不是整数值。我不认为这个 scikit 模块可以处理字符串值。您应该将它们转换为整数。可能类似于sentence.append(int(line[0])) list_of_features 变量是 no_of_features x no_of_features 矩阵。它的形状应该是 n_samples x n_features。你可以通过list_of_features = np.array(list_of_features).T转置它

2 - 分类器不知道如何将句子映射到特征,因此您必须明确给出特征。您可以通过遍历句子并检查目标词是否存在来实现。

编辑:

import numpy as np
from sklearn.naive_bayes import BernoulliNB

feature_word_list = ["cat", "dog", "fridge", "car", "rabbit"]
feature1 = [0, 1, 0, 0, 0]
feature2 = [1, 0, 0, 0, 0]
feature3 = [0, 0, 1, 0, 0]
feature4 = [0, 0, 0, 1, 0]
feature5 = [1, 1, 0, 0, 1]
class_name_list = [1, 1, 0, 0, 1]

train_features = np.array([feature1,feature2,feature3,feature4,feature5]).T

clf = BernoulliNB()
clf.fit(train_features, class_name_list)

上面的代码是一样的,只是我直接放了特征值而不从文件中读取。

test_data = ["this is about dog and cats","not animal related sentence"]
test_feature_list = []
for test_instance in test_data:
  test_feature = [1 if feature_word in test_instance else 0 for feature_word in feature_word_list]
  test_feature_list.append(test_feature) 

test_feature_matrix = np.array(test_feature_list)
print(test_feature_matrix)

现在您的 test_feature_matrix 将如下所示:

[[1 1 0 0 0]
 [0 0 0 0 0]]

请注意,我有 2 个测试数据,因此矩阵有 2 个对应的行,每列代表一个特征值(即句子中是否存在特定单词)。这就是我在第 2 点中试图说的,分类器不知道“猫”、“冰箱”或其他东西,但它需要的是单词是否存在,1 或 0。

现在您可以预测这些测试数据(句子)的标签:

predicted_label_list = clf.predict(test_feature_matrix)
print(predicted_label_list)

给出

的结果
[1 0]

注意:它可能不适用于您的测试数据,因为它包含不在您的特征空间和训练数据中的单词。我的意思是您的测试数据包含“斑马”,但训练集中没有“斑马”,因此它可能归类为 0。

【讨论】:

谢谢。所以我在上面编辑了问题,显示了我正在使用的实际文件的实际输出(上面第 1 点的所有要点都已修复)。所以我想我不理解的部分是你的第 2 点。所以我现在已经建立了这个模型。我在一个文件中有一组新的句子。我只是不明白如何将两者结合起来?如果可能的话,您能否非常具体但基本地解释一下?或者,如果可能的话,您能否提供几行 python 代码来展示如何组合它们,以便我可以看到和理解(虽然我知道这更费力,所以如果不可能,请不要担心)。 @E.Dohrty 我更新了我的答案,你可以看看。

以上是关于使用 Sklearn.naive_bayes.Bernoulli 的朴素贝叶斯分类器;如何使用模型进行预测?的主要内容,如果未能解决你的问题,请参考以下文章

在使用加载数据流步骤的猪中,使用(使用 PigStorage)和不使用它有啥区别?

今目标使用教程 今目标任务使用篇

Qt静态编译时使用OpenSSL有三种方式(不使用,动态使用,静态使用,默认是动态使用)

MySQL db 在按日期排序时使用“使用位置;使用临时;使用文件排序”

使用“使用严格”作为“使用强”的备份

Kettle java脚本组件的使用说明(简单使用升级使用)