Elasticsearch语言处理系列之打字或拼写错误 模糊匹配 字段纠错 Fuzzy multi_match
Posted 九师兄
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Elasticsearch语言处理系列之打字或拼写错误 模糊匹配 字段纠错 Fuzzy multi_match相关的知识,希望对你有一定的参考价值。
1.概述
转载:https://www.cnblogs.com/richaaaard/p/5282630.html
摘要
我们喜欢在对结构化数据(如:日期和价格)做查询时,结果只返回那些能精确匹配的文档。但是,好的全文搜索不应该有这样的限制。相反,我们可以扩大范围,包括更多可能匹配的词语,使用相关度评分将更匹配的文档放置在结果集的顶部。
事实上,只做精确匹配的全文搜索很有可能会让用户失望,难道我们不希望搜索 “quick brown fox”
可以匹配到包含 “fast brown foxes”
的文档,“Johnny Walker”
可以匹配 “Johnnie Walker”
,“Arnold Shcwarzenneger”
可以匹配 “Arnold Schwarzenegger”
?
如果文档确实精确包含用户的搜索条件,那么它们应该出现在结果集的顶部,而弱匹配可以置于结果列表的稍后地方。如果没有精确的匹配,至少我们可以为用户提供潜在匹配的可能,它们甚至可能是用户搜索的初衷!
我们已经在 规则化标记(Normalizing Tokens)
介绍了处理变音词的匹配方式,在 缩减单词至词根形式(Reducing Words to Their Root Form) 中介绍了词语的词干提取方式,在 同义词(Synonyms) 中介绍了同义词的处理方式,但是所有这些方法都以单词是正确拼写这个条件为前提,或者说每个词的拼写方式只有一种
。
模糊匹配允许在查询时匹配拼写错误的词,语音标记过滤器可以在索引时用来语音匹配。
2.版本
elasticsearch版本: elasticsearch-2.x
3.内容
3.1 模糊逻辑(Fuzziness)
模糊匹配将两个模糊相似的词作为同一词语处理,首先,我们须要定义什么是模糊性。
在 1965 年,Vladimir Levenshtein 开发了 Levenshtein 距离算法,它可以计算从一个单词变成另外一个单词时,单个字符改变的总次数。它提出了三种类型的单字符修改方式:
- 将一个字符替换成为另外一个:
f ox → b ox
- 插入新的字符:
sic → sic k
- 删除字符:
b l ack → back
Frederick Damerau 后来对这些操作进行了扩展,新增了一种方式:
- 交换两个相邻字符的位置:
st ar → ts ar
例如,将单词 bieber 转换成 beaver 需要以下步骤:
- 将 b 替换成 v :
bie b er → bie v er
- 将 i 替换成 a :
b i ever → b a ever
- 交换 a 和 e 的位置:
b ae ver → b ea ver
这三步用 Damerau-Levenshtein
法表示的距离是 3 。
显然,bieber 与 beaver 有很长一段距离,它们相距太远而不能被认为是简单的拼写错误。Damerau 观察到 80% 的人为拼写错误的距离是 1
。换句话说,有 80% 的拼写错误可以通过单次字符修改得到原始的字符串。
Elasticsearch 支持一个最大的编辑距离是 2 ,可以通过参数 fuzziness 来指定。
当然,单次修改的影响还取决于被修改字符串的长度。单词 hat 经两次修改可以变成 mad ,所以允许长度为 3 的字符串修改两次有点过度。参数 fuzziness 可以被设置成 AUTO ,代表以下三中最大编辑距离:
- 0 对于长度为 1 或 2 的字符串
- 1 对于长度为 3、4 或 5 的字符串
- 2 对于长度大于 5 的字符串
当然,可能会发现 2 步修改仍然过度,返回的结果看上去并不相关。当最大 fuzziness 值为 1 时,我们可能会得到更好的搜索结果和更好的性能。
3.2 模糊查询(Fuzzy Query)
fuzzy 查询和使用 term 查询的 fuzzy 特性是等价的
。通常我们很少会自己直接使用它,但是理解它的工作方式有助于我们在高层 match 查询中利用模糊的特性。
为了理解它是如何工作的,我们先新建索引一些文档:
POST /my_index-0002/my_type/_bulk
{ "index": { "_id": 1 }}
{ "text": "Surprise me!"}
{ "index": { "_id": 2 }}
{ "text": "That was surprising."}
{ "index": { "_id": 3 }}
{ "text": "I wasn't surprised."}
现在我们就可以运行 fuzzy 查询搜索 surprize:
GET /my_index-0002/my_type/_search
{
"query": {
"fuzzy": {
"text": "surprize"
}
}
}
查询结果如下
{
"_index" : "my_index-0002",
"_type" : "my_type",
"_id" : "1",
"_score" : 0.9559981,
"_source" : {
"text" : "Surprise me!"
}
},
{
"_index" : "my_index-0002",
"_type" : "my_type",
"_id" : "3",
"_score" : 0.69983494,
"_source" : {
"text" : "I wasn't surprised."
}
}
fuzzy 查询是一个词项级别的查询
,所以它没有做任何分析的工作。它接收单个词项,并且根据指定的模糊逻辑在字典中查找匹配的所有词项。默认的 fuzziness 值是 AUTO
。
在我们的例子中,surprize 距离 2 以内的词有 surprise 和 surprised
,所以文档 1 和 3 是匹配的。我们可以通过以下查询将匹配结果缩小至 surprise :
GET /my_index-0002/my_type/_search
{
"query": {
"fuzzy": {
"text": {
"value": "surprize",
"fuzziness": 1
}
}
}
}
结果如下
{
"_index" : "my_index-0002",
"_type" : "my_type",
"_id" : "1",
"_score" : 0.9559981,
"_source" : {
"text" : "Surprise me!"
}
}
3.3 提升性能(Improving Performance)
fuzzy 查询接受原始词项并为其构建一个 Levenshtein 自动机(automaton) ,这个结构有如一个图,它能表示与原始字符串相距指定编辑距离值以内的所有可能字符串
。
模糊查询随后使用这个自动机逐步高效的在字典中匹配所有词项,一旦收集到字典里所有的匹配词项,它便能计算出所有与之匹配的文档
。
当然,由于索引里存储的数据类型不同,一个编辑距离为 2 可以与大量词匹配,性能也会非常差。以下两个参数可以用来限制对性能的不良影响:
prefix_length
设置字符串不会被“模糊化”的起始长度
。多数拼写错误出现在词语的末尾处,而不是开始处。比如,当 prefix_length 的值为 3
时,我们可以大大减少需要匹配词项的数目。
max_expansions
如果模糊查询扩展到三或四个选项的时候,这些新选项可能还是有意义的,但当它生成 1,000 个选项时,它们实际上毫无意义。用 max_expansions 来限制生成选项的总数,模糊查询会搜集匹配的词项,直到找不出更多匹配或词项数目达到 max_expansions 数值的限制。
3.4 模糊匹配查询(Fuzzy match Query)
match 查询自带支持模糊匹配的功能:
GET /my_index-0002/my_type/_search
{
"query": {
"match": {
"text": {
"query": "SURPRIZE ME!",
"fuzziness": "AUTO",
"operator": "and"
}
}
}
}
查询结果如下
"hits" : {
"total" : {
"value" : 1,
"relation" : "eq"
},
"max_score" : 2.0485673,
"hits" : [
{
"_index" : "my_index-0002",
"_type" : "my_type",
"_id" : "1",
"_score" : 2.0485673,
"_source" : {
"text" : "Surprise me!"
}
}
]
}
查询字符串首先经过分析,然后生成词项 [surprize, me]
,最后每个词项用指定的 fuzziness(模糊逻辑)
进行模糊化处理。
类似地,multi_match
查询也支持模糊逻辑
,但它只支持两种类型 best_fields 或 most_fields
:
GET /my_index-0002/my_type/_search
{
"query": {
"multi_match": {
"fields": [
"text",
"title"
],
"query": "SURPRIZE ME!",
"fuzziness": "AUTO"
}
}
}
查询结果
"hits" : [
{
"_index" : "my_index-0002",
"_type" : "my_type",
"_id" : "1",
"_score" : 2.0485673,
"_source" : {
"text" : "Surprise me!"
}
},
{
"_index" : "my_index-0002",
"_type" : "my_type",
"_id" : "3",
"_score" : 0.69983494,
"_source" : {
"text" : "I wasn't surprised."
}
}
]
match 和 multi_match 查询都能支持 prefix_length 和 max_expansions 参数。
小贴士
模糊逻辑只能使用于两种基本查询 match 和 multi_match,而无法使用于短语匹配,常用词项或跨字段匹配。
模糊度的评分(Scoring Fuzziness)
用户喜欢模糊查询,他们以为这些查询总会奇妙的找到正确的拼写结果。不幸的是,事实却无法激动人心。
假设我们有 1,000 个文档包含词语 “Schwarzenegger”,其中只有 1 个文档里有错误拼写 “Schwarzeneger”,根据 TF/IDF 的理论,这个错误拼写比正确拼写更具相关性,因为它在文档里出现的次数要少得多
!
换句话说,如果我们同等对待模糊匹配和其他匹配,那么我们就会更偏向错误拼写而不是正确拼写,这会使用户感到抓狂的。
小贴士
模糊匹配不应用于以评分为目的的查询,而只能当有错误拼写时,用于扩大匹配词项的匹配范围。
默认情况下,match 查询给所有模糊匹配的分数总是 1 。这足以使潜在的匹配出现在结果的末尾,而不用影响到非模糊查询的相关度评分计算。
小贴士
模糊查询本身并没有刚开始看起来那么有用,它们最好作为高级功能的一部分,例如 输入即搜索 completion 完成建议器 或 你想查找 词组建议器。
3.5 语音匹配(Phonetic Matching)
最后,令人绝望的是,试图匹配那些听上去相似的词,这些词的拼写甚至是不同的。
现存一些算法可以将词语转换成语音形式表示
。Soundex 算法
是它们的始祖,其他所有类似算法都是 Soundex 的改进或定制形式,例如 Metaphone
和 Double Metaphone
(它对语音匹配扩展到其他语言而不只是英语),Caverphone
算法可以匹配新西兰姓名,Beider-Morse
算法以 Soundex
算法为基础,但它能更好的匹配德语和依地语姓名,Kölner Phonetik
对德语词支持更好。
我们从上面一串算法中要学到的是语音算法都相当粗糙,太依赖于它们针对设计的语言,这些语言可以是英语,也可以是德语,这限制了它们的可用性。不过,如果与其他技术相结合,为了处理某种问题,语音匹配也可以是个有用的工具。
首先,我们需要从下面网址安装语音分析插件 https://www.elastic.co/guide/en/elasticsearch/plugins/current/analysis-phonetic.html ,为集群每个节点都安装,然后重启每个节点。
安装后,我们可以创建一个自定义分析器,尝试使用其中一个语音标记过滤器:
PUT /my_index
{
"settings": {
"analysis": {
"filter": {
"dbl_metaphone": { #1
"type": "phonetic",
"encoder": "double_metaphone"
}
},
"analyzer": {
"dbl_metaphone": {
"tokenizer": "standard",
"filter": "dbl_metaphone" #2
}
}
}
}
}
1 首先,配置自定义 phonetic 语音标记过滤器以及 double_metaphone 编码器。
2 然后在自定义分析器中使用自定义的标记过滤器。
现在使用 analyze API 对其测试:
GET /my_index/_analyze?analyzer=dbl_metaphone
Smith Smythe
Smith 和 Smythe 在同一位置各生成两个标记:SM0 和 XMT。分析 John、Jon 和 Johnnie 会都生成两个标记 JN 和 AN,但 Jonathon 会生成标记 JN0N 和 ANTN。
语音分析器和其他分析器的使用方式类似,首先为字段设置映射,然后在对数据建立索引:
PUT /my_index/_mapping/my_type
{
"properties": {
"name": {
"type": "string",
"fields": {
"phonetic": { #1
"type": "string",
"analyzer": "dbl_metaphone"
}
}
}
}
}
PUT /my_index/my_type/1
{
"name": "John Smith"
}
PUT /my_index/my_type/2
{
"name": "Jonnie Smythe"
}
1 name.phonetic 字段使用自定义的 dbl_metaphone 分析器。
用 match 查询来搜索:
GET /my_index/my_type/_search
{
"query": {
"match": {
"name.phonetic": {
"query": "Jahnnie Smeeth",
"operator": "and"
}
}
}
}
这个查询同时返回两个文档,这样表明语音查询是有多粗糙。使用语音算法进行评分通常也没有多大意义。使用语音算法的目的不在于提高精度,而在于提高召回,扩大撒网范围从而获得任何可能匹配的文档。
通常将语音算法的结果作为其他算法或计算机的输入信息,要比直接将结果给人使用要靠谱得多。
以上是关于Elasticsearch语言处理系列之打字或拼写错误 模糊匹配 字段纠错 Fuzzy multi_match的主要内容,如果未能解决你的问题,请参考以下文章
如何在Elasticsearch上搜索带或不带撇号的单词?并处理拼写错误?