jieba(结巴)常用方法

Posted ltb6w

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了jieba(结巴)常用方法相关的知识,希望对你有一定的参考价值。

第一步:先安装jieba库

  输入命令:pip install jieba

  技术图片

jieba库常用函数:

  jieba库分词的三种模式:
  1、精准模式:把文本精准地分开,不存在冗余
  2、全模式:把文中所有可能的词语都扫描出来,存在冗余
  3、搜索引擎模式:在精准模式的基础上,再次对长词进行切分

  技术图片

  精准模式:

  >>> import jieba
  >>> jieba.lcut("中国是一个伟大的国家")
  Building prefix dict from the default dictionary ...
  Loading model from cache C:\\Users\\25282\\AppData\\Local\\Temp\\jieba.cache
  Loading model cost 0.869 seconds.
  Prefix dict has been built succesfully.
  [‘中国‘, ‘是‘, ‘一个‘, ‘伟大‘, ‘的‘, ‘国家‘]

  全模式:

  >>> jieba.lcut("中国是一个伟大的国家",cut_all=True)
  [‘中国‘, ‘国是‘, ‘一个‘, ‘伟大‘, ‘的‘, ‘国家‘]

  搜索引擎模式:

  >>> jieba.lcut_for_search("中华人民共和国是伟大的")
  [‘中华‘, ‘华人‘, ‘人民‘, ‘共和‘, ‘共和国‘, ‘中华人民共和国‘, ‘是‘, ‘伟大‘, ‘的‘]

  向分词词典增加新词:

  >>> jieba.add_word("蟒蛇语言")
  >>> jieba.lcut("python是蟒蛇语言")
  [‘python‘, ‘是‘, ‘蟒蛇语言‘]

jieba库应用举例1 ——统计八荣八耻中出现的词汇

  技术图片

  技术图片

jieba库分词统计实例2--三国演义词汇

 (1)查找出“threekingdoms.txt”文件中出现频率前十位的词汇 

  技术图片

 (2)统计出“threekingdoms.txt”文件 “关羽”、“曹操”、“诸葛亮”、“刘备” 等人名出现的次数

  技术图片

以上是关于jieba(结巴)常用方法的主要内容,如果未能解决你的问题,请参考以下文章

在python 环境下,使用结巴分词,自动导入文本,分词,提取关键词.脚本 大侠给个

结巴分词功能

结巴中文分词使用学习(python)

“结巴”中文分词:做最好的 Python 中文分词组件

jiebaTrie树

Python3.6 结巴分词安装和使用