jieba:做最好的 Python 中文分词组件,了解一下!
Posted 追风筝的路上
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了jieba:做最好的 Python 中文分词组件,了解一下!相关的知识,希望对你有一定的参考价值。
算法
-
基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图 (DAG); -
采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合; -
对于未登录词,采用基于汉字成词能力的 HMM 模型,使用了 Viterbi 算法。
中文分词技术是中文信息处理的基础,有着极其广泛的实际应用,比如:汉语语言理解、机器翻译、语音合成、自动分类、自动摘要、数据挖掘和搜索引擎等,都需要对中文信息进行分词处理。因此,一个中文分词算法的好坏,会对其后续的应用产生极大的影响。
特点
精确模式:试图将句子最精确地切开,适合文本分析;
全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
搜索引擎模式:在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
paddle模式:利用PaddlePaddle深度学习框架,训练序列标注(双向GRU)网络模型实现分词。同时支持词性标注。
注意:paddle模式使用需安装paddlepaddle-tiny:
pip install paddlepaddle-tiny==1.6.1
目前paddle模式支持jieba v0.40及以上版本,如果是jieba v0.40以下版本,升级jieba:
pip install jieba --upgrade
安装
Demo
常用的jieba分词常用的函数如下:
使用默认分词器,演示三种模式:
import jieba
text = '天青色等烟雨而我在等你,炊烟袅袅升起隔江千万里'
# 精准模式,cut_all默认False
list_mode1 = jieba.lcut(text)
for i in list_mode1:
print(i, end="/")
print()
# 全模式
list_mode2 = jieba.lcut(text, cut_all=True)
for i in list_mode2:
print(i, end="/")
print()
# 搜索引擎模式
list_mode3 = jieba.lcut_for_search(text)
for i in list_mode3:
print(i, end="/")
天/青色/等/烟雨/而/我/在/等/你/,/炊烟袅袅/升起/隔江/千万里/
天青/青色/等/烟雨/而/我/在/等/你/,/炊烟/炊烟袅袅/袅袅/升起/隔/江/千万/千万里/万里/
天/青色/等/烟雨/而/我/在/等/你/,/炊烟/袅袅/炊烟袅袅/升起/隔江/千万/万里/千万里/
jieba.add_word('我在等你')
jieba.del_word('炊烟袅袅')
天/青色/等/烟雨/而/我在等你/,/炊烟/袅袅/升起/隔江/千万里/
天青/青色/等/烟雨/而/我在等你/,/炊烟/袅袅/升起/隔/江/千万/千万里/万里/
天/青色/等/烟雨/而/我在等你/,/炊烟/袅袅/升起/隔江/千万/万里/千万里/
以上是关于jieba:做最好的 Python 中文分词组件,了解一下!的主要内容,如果未能解决你的问题,请参考以下文章