中文分词工具jieba的使用

Posted yuanzhengchi

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了中文分词工具jieba的使用相关的知识,希望对你有一定的参考价值。

中文分词工具jieba的使用

  • 1.进入到安装了全文检索工具包的虚拟环境中
    • /home/python/.virtualenvs/py3_django/lib/python3.5/site-packages/
    • 进入到haystack/backends/
  • 2.创建ChineseAnalyzer.py文件

  • 技术分享图片

    技术分享图片

     import jieba
     from whoosh.analysis import Tokenizer, Token
    
     class ChineseTokenizer(Tokenizer):
         def __call__(self, value, positions=False, chars=False,
                      keeporiginal=False, removestops=True,
                      start_pos=0, start_char=0, mode=‘‘, **kwargs):
             t = Token(positions, chars, removestops=removestops, mode=mode, **kwargs)
             seglist = jieba.cut(value, cut_all=True)
             for w in seglist:
                 t.original = t.text = w
                 t.boost = 1.0
                 if positions:
                     t.pos = start_pos + value.find(w)
                 if chars:
                     t.startchar = start_char + value.find(w)
                     t.endchar = start_char + value.find(w) + len(w)
                 yield t
    
     def ChineseAnalyzer():
         return ChineseTokenizer()
    
    • 3.拷贝whoosh_backend.pywhoosh_cn_backend.py

      cp whoosh_backend.py whoosh_cn_backend.py
      
    • 4.更改分词的类为ChineseAnalyzer

      • 打开并编辑 whoosh_cn_backend.py
      • 引入from .ChineseAnalyzer import ChineseAnalyzer
      • 查找
          analyzer=StemmingAnalyzer()
          改为
          analyzer=ChineseAnalyzer()
        
    • 5.更改分词引擎

    • 技术分享图片

      技术分享图片

    • 6.重新创建索引数据

      python manage.py rebuild_index

以上是关于中文分词工具jieba的使用的主要内容,如果未能解决你的问题,请参考以下文章

jieba分词工具的使用

中文分词工具jieba的使用

2 中文分词工具 jieba 和 HanLP

中文分词工具简介与安装教程(jiebanlpirhanlppkusegfoolnltksnownlpthulac)

PaceBora||Python中文分词 jieba 十五分钟入门与进阶

中文分词工具——jieba