通过使用 POS 标记提高文本分类准确性 - NLP

Posted

技术标签:

【中文标题】通过使用 POS 标记提高文本分类准确性 - NLP【英文标题】:Improve text classification accuracy by using POS tagging - NLP 【发布时间】:2021-11-13 19:24:22 【问题描述】:

我正在做一个项目,将推文分类为健康和政治类别。我使用朴素贝叶斯算法进行分类。

我正在尝试通过应用 POS 标记来提高朴素贝叶斯分类的准确性。因为我认为,分配语言信息会提高分类效率。

在预处理和应用 pos 标记后,我的数据集如下所示:

ID      tweet                               Category   pos_tagged_tweet
1   හාමුදුරුවරු සියලූම පූජකයන්ගේ මානසික සෞඛ්යය  Health    [(හාමුදුරුවරු, NNC), (සියලූම, NNC), (පූජකයන්ගේ, NNC), (මානසික, JJ), (සෞඛ්යය, NNC), (., FS)]
2   ද්විපාර්ශවික එකඟතා ජන ජීවිත සෞඛ්යය මනාව    Politics  [(ද්විපාර්ශවික, NNP), (එකඟතා, NNP), (ජන, JJ), (ජීවිත, NNJ), (සෞඛ්යය, NNC), (මනාව, RB),  (., FS)]
3   කරැනාකර චින නිෂ්පාදිත එන්නත ලබාගත්         Health    [(කරැනාකර, NNC), (චින, VP), (නිෂ්පාදිත, VP), (එන්නත, NNC), (ලබාගත්, VP),(., FS)]
'
'
'

我需要知道如何为朴素贝叶斯算法应用 pos_tagged_tweet 列和 Category 列来分类推文是基于健康的推文还是政治推文。我正在使用 python 和 NLTK 来实现。

【问题讨论】:

【参考方案1】:

我的想法是用句子中对应的 pos_tags 替换单词并形成如下的新属性:

sentence = ["A quick brown fox jumped over the cat",
        "An apple fell from a tree",
        "I like old western classics"]
tokenized_sents = [nltk.word_tokenize(i) for i in sentence]
print(tokenized_sents)
pos_tags = [nltk.pos_tag(token) for token in tokenized_sents]

print(pos_tags)

[[('A', 'DT'), ('quick', 'JJ'), ('brown', 'NN'), ('fox', 'NN'), ('jumped', 'VBD'), ('over', 'IN'), ('the', 'DT'), ('cat', 'NN')], [('An', 'DT'), ('apple', 'NN'), ('fell', 'VBD'), ('from', 'IN'), ('a', 'DT'), ('tree', 'NN')], [('I', 'PRP'), ('like', 'VBP'), ('old', 'JJ'), ('western', 'JJ'), ('classics', 'NNS')]]

现在通过用 pos_tags 替换句子中的单词,从 pos_tags 创建词向量。

# from gensim.test.utils import common_texts
from gensim.models import Word2Vec

 pos_tag_list = [['DT', 'JJ', 'NN', 'NN', 'VBD', 'IN', 'DT', 'NN'],
                      ['DT','NN','VBD','IN','DT','NN'],['PRP','VBP','JJ','JJ','NNS']]
 w2v_model = Word2Vec(min_count=1,
                 window=2,
                 size=30,
                 sample=1e-5, 
                 alpha=0.01, 
                 min_alpha=0.0007, 
                 negative=0,
                 workers=2)
w2v_model.build_vocab(pos_tag_list, progress_per=1)
w2v_model.train(pos_tag_list, total_examples=w2v_model.corpus_count, epochs=3, report_delay=1)

# get the vectors for the Pos_tags from w2v_model
 my_dict = dict()
 for index, key in enumerate(w2v_model.wv.vocab):
    my_dict[key] = w2v_model.wv[key]

 # Sample Output vector for pos_tags, we got 30-dimensional word vector since
 we used size=30.

  'DT': array([-0.01487986,  0.00341667,  0.00576919, -0.01203213,  0.01111736,
     0.01643543,  0.00583243,  0.00283635, -0.00892249,  0.01334178,
     0.01324782,  0.00843606,  0.00965199,  0.00849338, -0.00584444,
    -0.00482766,  0.01218408, -0.00959254, -0.00172328,  0.01302824,
    -0.00374165, -0.01516393, -0.00604865,  0.00170989,  0.00843781,
    -0.01403714,  0.00150807,  0.01511062,  0.00798908,  0.0088043 ],
   dtype=float32)

现在对于 pos_tag_list 中的每个条目,将 pos_tags 替换为向量,并为朴素贝叶斯模型创建一个训练数据集。您还可以将实际的词向量与 pos_tags 一起使用,并创建一个综合数据集。我没有专门研究它,但根据我发现的研究,我认为这可能有效。试试看。

【讨论】:

非常感谢@Priya。我会试一试的。【参考方案2】:

首先,当提出问题时,请遵循guidelines 并包括一个最小的可重现示例,如here 所述。

现在,我假设您使用的是 nltk,并且所有内容都是英文的。首先,你需要标记你的句子,然后应用 POS Tagging:

import nltk
 
sentence = "Can you help me with this?"
tokens = nltk.word_tokenize(sentence)
pos = nltk.pos_tag(tokens)

print(pos)

这将为您提供以下列表:

[('Can', 'MD'), ('you', 'PRP'), ('help', 'VB'), ('me', 'PRP'), ('with', 'IN'), ('this', 'DT'), ('?', '.')]

您可以在他们的documentation 上找到有关 NLTK 的更多信息。

【讨论】:

一个想法是用相应的邮资代替单词

以上是关于通过使用 POS 标记提高文本分类准确性 - NLP的主要内容,如果未能解决你的问题,请参考以下文章

我需要提高朴素贝叶斯文本分类的准确性

Weka POS 标记 + 标记化

详解使用EM算法的半监督学习方法应用于朴素贝叶斯文本分类

在pyspark中编写自定义NER和POS标记器,以在管道方法中用于文本输入的特征提取

如何在 Matlab 中提高 SVM 训练和分类的准确性?

论文泛读180反向翻译任务自适应预训练:提高文本分类的准确性和鲁棒性