Lucene4:获取中文分词结果,根据文本计算boost

Posted fan-yuan

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Lucene4:获取中文分词结果,根据文本计算boost相关的知识,希望对你有一定的参考价值。

1. 要求

环境:

Lucene 4.1版本/IKAnalyzer 2012 FF版本/mmseg4j 1.9版本

实现功能:

1).给定输入文本,获取中文拆分词结果;
2).给定输入文本,对该文本按一定规则进行权重打分;如:文本中包含指定关键词的频率越高,分值越高。

2. 实现代码

技术分享图片
package com.clzhang.sample.lucene;

import java.io.*;
import java.util.*;

import org.apache.lucene.analysis.Analyzer;

import com.chenlb.mmseg4j.Dictionary;
import com.chenlb.mmseg4j.analysis.SimpleAnalyzer;
import com.chenlb.mmseg4j.analysis.ComplexAnalyzer;
import com.chenlb.mmseg4j.analysis.MaxWordAnalyzer;
import org.wltea.analyzer.lucene.IKAnalyzer;

import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;

/**
 * 环境:Lucene 4.1版本/IKAnalyzer 2012 FF版本/mmseg4j 1.9版本
 * 1.给定输入文本,获取中文拆分词结果;
 * 2.给定输入文本,对该文本按一定规则进行权重打分;
 *   如:文本中包含指定关键词的频率越高,分值越高。
 * @author Administrator
 *
 */
public class AnalyzerTool {
    // mmseg4j字典路径
    private static final String MMSEG4J_DICT_PATH = "C:\solr\news\conf";
    private static Dictionary dictionary = Dictionary.getInstance(MMSEG4J_DICT_PATH);
    
    // 负面关键词信息,如果文本中包含这些词,那么该文本的打分值将变高。
    private static List<String> lstNegativeWord;
    
    static {
        lstNegativeWord = new ArrayList<String>();
        
        // 下列词语必须存在于词典中:或者是分词器自带的词典,或者是自定义词典;
        // 否则计算权重结果不准,因为有关键词没有被分词器拆分出来。
        lstNegativeWord.add("不雅");
        lstNegativeWord.add("被免");
        lstNegativeWord.add("偷拍");
    }
    
    /**
     * 测试各种解析器对同样文本的解析结果
     * @param content
     * @throws Exception
     */
    public static void testAnalyzer(String content) throws Exception {
        Analyzer analyzer = new IKAnalyzer(); // 等于new IKAnalyzer(false);
        System.out.println("new IKAnalyzer()解析输出:" + getAnalyzedStr(analyzer, content));

        analyzer = new IKAnalyzer(true);
        System.out.println("new IKAnalyzer(true)解析输出:" + getAnalyzedStr(analyzer, content));
        
        analyzer = new SimpleAnalyzer(dictionary);
        System.out.println("new SimpleAnalyzer()解析输出:" + getAnalyzedStr(analyzer, content));

        analyzer = new ComplexAnalyzer(dictionary);
        System.out.println("new ComplexAnalyzer()解析输出:" + getAnalyzedStr(analyzer, content));
        
        analyzer = new MaxWordAnalyzer(dictionary);
        System.out.println("new MaxWordAnalyzer()解析输出:" + getAnalyzedStr(analyzer, content));
    }
    
    /**
     * 取得权重结果,规则:在输入字符串中查找关键词,关键词出现频率越多,权重越高
     * @param str
     * @return
     * @throws Exception
     */
    public static float getBoost(String str) throws Exception {
        float result = 1.0F;
        
        // 默认解析器,可以更改为其它解析器
        Analyzer analyzer = new IKAnalyzer();
//        Analyzer analyzer = new SimpleAnalyzer(dictionary);
        List<String> list = getAnalyzedStr(analyzer, str);
        for(String word: lstNegativeWord) {
            if(list.contains(word)) {
                result += 10F; // 每出现一种负面关键词(不管出现几次),分值加10
            }          
        }
        
        return result;
    }
    
    /**
     * 调用分词器解析输入内容,将每个分词加入到List,然后返回此List
     * @param content
     * @return
     * @throws Exception
     */
    public static List<String> getAnalyzedStr(Analyzer analyzer, String content) throws Exception {
        TokenStream stream = analyzer.tokenStream(null, new StringReader(content));
        CharTermAttribute term = stream.addAttribute(CharTermAttribute.class);
        
        List<String> result = new ArrayList<String>();
        while(stream.incrementToken()) {
            result.add(term.toString());
        }
        
        return result;
    }

    public static void main(String[] args) throws Exception {
        // 注意:亭湖新区/亭湖这两个词必须存在于IKAnalyzer/mmseg4j两个用户自定义词典中
        String content = "亭湖新区因不雅难过分视频被免官员国企老总名单公布";
        
        System.out.println("原文:" + content);
        testAnalyzer(content);
        System.out.println("默认解析器打分结果:" + getBoost(content));
    }
}
技术分享图片

输出:

原文:亭湖新区因不雅难过分视频被免官员国企老总名单公布
加载扩展词典:ext.dic
......
加载扩展停止词典:stopword.dic
new IKAnalyzer()解析输出:[亭湖新区, 亭湖, 新区, 因, 不雅, 难过, 过分, 视频, 被免, 免官, 官员, 国企, 老总, 名单, 公布]
new IKAnalyzer(true)解析输出:[亭湖新区, 因, 不雅, 难, 过分, 视频, 被免, 官员, 国企, 老总, 名单, 公布]
new SimpleAnalyzer()解析输出:[亭湖新区, 因, 不雅, 难过, 分, 视频, 被, 免, 官员, 国企, 老总, 名单, 公布]
new ComplexAnalyzer()解析输出:[亭湖新区, 因, 不雅, 难过, 分, 视频, 被, 免, 官员, 国企, 老总, 名单, 公布]
new MaxWordAnalyzer()解析输出:[亭湖, 新区, 因, 不雅, 难过, 分, 视频, 被, 免, 官员, 国企, 老总, 名单, 公布]
默认解析器打分结果:21.0











以上是关于Lucene4:获取中文分词结果,根据文本计算boost的主要内容,如果未能解决你的问题,请参考以下文章

中文分词概述及结巴分词原理

11个Java开源中文分词器使用方法和分词效果对比

11大Java开源中文分词器的使用方法和分词效果对比

php mysql 分词 模糊查询 并根据分词匹配度排序

python将怎么将jieba分词结果写入文本,各种编码问题啊

lucene构建同义词分词器