Spark 中文分词
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark 中文分词相关的知识,希望对你有一定的参考价值。
Spark 中文分词
一、导入需要的分词包
import org.ansj.domain.Term
import org.ansj.recognition.impl.StopRecognition
import org.ansj.splitWord.analysis.ToAnalysis
二、停用词过滤
def filter(stopWords: Array[String]): StopRecognition = {
// add stop words
val filter = new StopRecognition
filter.insertStopNatures("w") // filter punctuation
filter.insertStopNatures("m") // filter m pattern
filter.insertStopNatures("null") // filter null
filter.insertStopNatures("<br />") // filter <br />
filter.insertStopRegexes("^[a-zA-Z]{1,}") //filter English alphabet
filter.insertStopRegexes("^[0-9]+") //filter number
filter.insertStopRegexes("[^a-zA-Z0-9\u4e00-\u9fa5]+")
filter.insertStopRegexes(" ")
for (x <- stopWords) {
filter.insertStopWords(x)
}
filter
}
三、分词
def getWords(text: String, filter: StopRecognition): ArrayBuffer[String] = {
val words = new mutable.ArrayBuffer[String]()
val terms: java.util.List[Term] = ToAnalysis.parse(text).recognition(filter).getTerms
for (i <- 0 until terms.size()) {
val word = terms.get(i).getName
if (word.length >= MIN_WORD_LENGTH) {
words += word
}
}
words
}
以上是关于Spark 中文分词的主要内容,如果未能解决你的问题,请参考以下文章
spark MLlib实现的基于朴素贝叶斯(NaiveBayes)的中文文本自动分类
不再依赖hadoop/spark等工具就可以快速解决大规模中文分词统计频数问题
spark关于join后有重复列的问题(org.apache.spark.sql.AnalysisException: Reference '*' is ambiguous)(代码片段