记一次ES查询结果集失败

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了记一次ES查询结果集失败相关的知识,希望对你有一定的参考价值。

参考技术A 使用es存储查询时有分页功能,数据量较少时并没有发现该问题。但是当数据量比较大时,要查询第101页的数据,每页数据量为100,100页数据相当于要查第10000条以后的数据,这时发现es查询报错:

从字面理解,es的默认的结果集窗口是10000,但是你要查询到10025条数据;这里可以采用es的scroll api查询;或者通过改变索引的max_result_window的属性值。
上述的scroll api返回结果集为非排序的,不满足业务需求,所以不采用。
采用修改索引的max_result_window属性值。
修改方法如下:

返回结果:

然后再进行查询,发现可以正常返回了。

Elastic Search | 记一次Kibana执行ES-DSL脚本实战思考过程

目录

开篇

适合场景

重要考虑

脚本引擎历史

脚本引擎应用

DSL语法大全

脚本引擎案例

结尾


开篇

分而治之是大数据计算的基本思路,特分享一款天然的分布式全文搜索引擎-Elastic Search,而如何归并,是分而治之的重点难题。在HA集群节点架构中,各个节点主备分片如何分配,各分片搜索结果如何得出最终结果…

适合场景

当千万乃至更大数据量,需要像传统DBMS关系型数据库一样,实现在海量数据中作模糊搜索,全文搜索,又需要有一定程度的检索效率,突破传统DBMS性能瓶颈,那么ES很适合与关系型数据库形成互补,ES在搜索领域拥有强悍的性能,而传统DBMS关系型数据库分库分表组合查询相当麻烦,而ES组合灵活-自动路由(开发者无需在业务层作过多干涉),当然,在大数据量复杂查询的话,深度分页需要优化下,简单的查询几十亿问题不大,若超大则可上集群,再可上ES-ClickHouse.

重要考虑

虽然传统DBMS关系型数据库表中数据,可通过一系列方案-结合实际业务作数据同步至ES(数据建模),但当大批量数据同步到ES单节点,或从节点往集群迁移copy数据,基于logstash亦或是基于ES-Transport批量提交数据,数据需要实时更新亦或离线初始化,还有就是聚合的性能以及一些高级属性,比如copy to,script脚步引擎应用,mapping设计之动态模版映射动态索引或为指定索引匹配预制动态模版等等…

脚本引擎历史

一、Elasticsearch Script History-分布式全文搜索-脚本引擎历史

在ES早期的版本中,使用MVEL脚本,但为解决安全隐患问题,于是Groovy脚本诞生。

随之出现的安全漏洞跟内存泄露问题,于是在ES5.0版本之际,painless脚本官宣,距今也有数年之久,painless脚本浮现在开发者眼前。

脚本引擎应用

二、Elasticsearch Script ApplyCenarios-分布式全文搜索-脚本引擎应用场景

我们都很熟悉的认知到Elasticsearch全文搜索引擎,在其各版本系列中提供了丰富的dsl语法-增删改查-这里以6.x版本系列-6.8.6为例。

在80%以上的业务场景中作增删改查游刃有余,但应用于相对复杂的业务场景:

多字段自定义更新、自定义reindex、自定义数组字段动态添加...

https://www.elastic.co/guide/en/elasticsearch/painless/6.8/painless-regexes.html

当然基于脚本引擎手动开发插件也是可以实现的。

https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-scripting-engine.html

从painless脚本的衍生意义理解是"无痛"无漏洞的,但尤其需要注意的地方-不能以root账户启动es,不要公开es路径至其他用户。

从官方Script使用的介绍来看,首要就是性能问题,其次就是使用业务场景,ebay在性能优化实践英文版中也有体现,

https://www.ebayinc.com/stories/blogs/tech/elasticsearch-performance-tuning-practice-at-ebay/

这里也mark下中文版。

https://www.infoq.cn/article/elasticsearch-performance-tuning-practice-at-ebay

其中,80%以上的业务场景:参考小编汇总Elasticsearch+Kibana+Dsl-Crud大全

DSL语法大全

#节点信息
GET _cat/nodes?v
GET _cat/master

#各节点机器存储信息
GET _cat/allocation?v

#索引信息
GET _cat/indices?v
GET /_cat/count
GET /_cat/count/yd-2021
GET _cat/indices/yd-hlht-test-2022

#分片信息
GET _cat/shards?v
GET _cat/shards/yd-hlht-test-2022

#查看所有分片的恢复状况-该命令查看initializing分片的恢复进度
GET _cat/recovery/

GET _cat/recovery/yd-hlht-test-2022

GET _cluster/health

GET _cluster/nodes/hot_threads

#查看分片未分配原因
GET /_cat/shards?h=index,shard,prirep,state,unassigned.*,unassigned.reason | grep UNASSIGNED

#查看具体分片未分配原因
GET _cluster/allocation/explain

  "index":"yd-hlht-test-2022",
  "shard":0,
  "primary":false


#注册快照存储库-仓库共享
PUT _snapshot/my_backup

  "type": "fs",
  "settings": 
    "location": "/home/user/yxd179/es/backup"
  


#查看仓库信息
GET /_snapshot/my_backup?pretty

#查看快照存储库保存结果
GET _snapshot

#创建快照,这个会备份所有打开的索引到my_backup仓库下并命名为snapshot_yd的快照里。这个调用会立刻返回,然后快照会在后台运行。若是希望在脚本中一直等待到完成,可通过添加 wait_for_completion 标记实现,这个会阻塞调用直到快照完成(如果是大型快照,会花很长时间才返回),其中只会备份索引809iJpOmSI2ZmJrUqKRR0Q信息
PUT /_snapshot/my_backup/snapshot_yd?wait_for_completion=true

  "indices": "809iJpOmSI2ZmJrUqKRR0Q",
  "ignore_unavailable": true,
  "include_global_state": false,
  "metadata": 
    "taken_by": "phr",
    "taken_because": "backup before upgrading"
  

#查看快照
GET /_snapshot/my_backup/snapshot_yd
#查看所有快照
GET /_snapshot/my_backup/_all
#删除快照
DELETE /_snapshot/my_backup/snapshot_yd
#监控快照创建或恢复过程
GET /_snapshot/my_backup/snapshot_yd/_status
#恢复快照
POST /_snapshot/my_backup/snapshot_yd/_restore
#动态模板
PUT /_template/yxd179_tpl

  "index_patterns": [
    "yxd179-2021*"
  ],
  "settings": 
    "number_of_shards": 1,
    "number_of_replicas": 1
  ,
  "mappings": 
    "yd": 
      "dynamic_templates": [
        
          "strings": 
            "match_mapping_type": "string",
            "mapping": 
              "type": "text",
              "index": true,
              "copy_to": "full_context",
              "analyzer": "ik_max_word",
              "fields": 
                "keyword": 
                  "type": "keyword",
                  "ignore_above": 256
                
              
            
          
        
      ],
      "properties": 
        "full_context": 
          "type": "text",
          "analyzer": "ik_max_word",
          "fielddata": true,
          "store": true
        
      
    
  

​
#副本分片分配设置
PUT /yxd179-2021/_settings

  "number_of_replicas": "1"


#分页查询
GET /yxd179-2021/yd/_search

  "from": 0,
  "size": 30

​
#根据ID查询
GET /yxd179-2021/yd/647461503271768064
​
#bool query dsl查询
GET /yxd179-2021/yd/_search

  "query": 
    "bool": 
      "must": [
        
          "bool": 
            "should": [
              
                "match": 
                  "regNumber": "20203030651"
                
              
            ]
          
        ,
        
          "term": 
            "status": "1"
          
        
      ]
    
  ,
  "sort": [
    
      "createTime": 
        "order": "desc"
      
    
  ],
  "from": 0,
  "size": 10

​
#允许ES最大滚动数目分配设置
PUT /yxd179-2021/_settings

  "index": 
    "max_result_window": 13000000
  

​
#查看字段分词分析过程
POST /yxd179-2021/_analyze

  "field": "regNumber",
  "text": "国械标准20203030651号"

​
#模糊查询匹配
GET /yxd179-2021/yd/_search

  "query": 
    "bool": 
      "must": [
        
          "bool": 
            "should": [
              
                "wildcard": 
                  "regNumber.keyword": "*20203030651*"
                
              
            ]
          
        ,
        
          "term": 
            "status": "1"
          
        
      ]
    
  ,
  "sort": [
    
      "createTime": 
        "order": "desc"
      
    
  ],
  "from": 0,
  "size": 10

​
#对指定字段设置分词器查询
GET /yxd179-2021/yd/_search

  "query": 
    "bool": 
      "must": [
        
          "match": 
            "hdsd0001004": 
              "query": "1828551417",
              "analyzer": "char_analyzer"
            
          
        
      ]
    
  ,
  "from": 0,
  "size": 30

​
#模糊查询匹配
GET /yxd179-2021/yd/_search

  "query": 
    "bool": 
      "must": [
        
          "wildcard": 
            "hdsd0001002.keyword": "*yxd179*"
          
        
      ]
    
  ,
  "from": 0,
  "size": 30

​
#关闭索引:
POST yxd179-2021/_close
​
#打开索引:
POST yxd179-2021/_open
​
#对指定字段设置分词器
PUT /yxd179-2021/_mapping/yd

  "properties": 
    "hdsd0001004": 
      "type": "text",
      "analyzer": "char_analyzer"
    
  

​
#查看mapping结构体信息
GET yxd179-2021/_mapping
​
#设置分词分析器
PUT yxd179-2021/_settings

  "analysis": 
    "analyzer": 
      "char_analyzer": 
        "tokenizer": "char_tokenizer",
        "filter": "lowercase"
      
    ,
    "tokenizer": 
      "char_tokenizer": 
        "type": "pattern",
        "pattern": "|"
      
    
  

​
#minimum_should_match
GET /yxd179-2021/yd/_search

  "query": 
    "query_string": 
      "query": "182855141y7",
      "type": "phrase",
      "operator": "AND",
      "minimum_should_match": "100%",
      "fields": [
        "hdsd0001004"
      ]
    
  

​
#显示字段
GET /yxd179-2021/yd/_search

  "_source": 
    "include": [
      "id",
      "productId"
      ]
  ,
  "query": 
    "bool": 
      "must": [
        
          "terms": 
            "productId": [
              636654265306419462
              ]
          
        
      ]
    
  ,
  "from": 0,
  "size": 30

​
#高亮查询
GET /yxd179-2021/yd/_search

  "query": 
    "bool": 
      "must": [
        
          "bool": 
            "should": []
          
        ,
        
          "term": 
            "status": "1"
          
        ,
        
          "term":
            "id":636662671736099971
          
        
      ]
    
  ,
  "sort": [
    
      "id": 
        "order": "asc"
      
    
  ],
  "highlight": 
    "pre_tags": [
      "<span class='title-key'>"
    ],
    "post_tags": [
      "</span>"
    ],
    "fields": 
      "commonName": 
        "type": "plain"
      
    
  ,
  "from": 0,
  "size": 10

​
#read_only_allow_delete
PUT /yxd179-2021/_settings

  "index":
    "blocks":
      "read_only_allow_delete":"false"
    
  

​
#查询模板
GET /_template
​
GET /yxd179-2021*/yd/_search

  "from": 0,
  "size": 30

​
#单个字段bool查询
GET /yxd179-2021/yd/_search

  "query": 
    "bool": 
      "must": [
        
          "term": 
            "id": "636651493706133509"
          
        
      ]
    
  ,
  "from": 0,
  "size": 30

​
#批量
POST /_bulk
"index":"_index":"yxd179-2021","_type":"yd","_id":"65965969996688"
"id":"65965969996688","HDSD0001002":"sdff","HDSD0001008":"fsdf","HDSD0001006":"000000000000000000","create_time":"2021-07-29","cancel_flag":0
"index":"_index":"yxd179-2021","_type":"yd","_id":"66049829996688"
"id":"66049829996688","HDSD0001002":"sdgsdg","HDSD0001008":"fsdfsdf","HDSD0001006":"000000000000000000","create_time":"2021-07-29","cancel_flag":1 

更多dsl语法大全,请见->Elasticsearch进阶篇@记kibana执行dsl脚本实战过程

脚本引擎案例

三、Elasticsearch Script ActualCombat-分布式全文搜索-脚本引擎实战

这里仅以Update-By-Query为例: 

其中,lang指定脚本引擎:painless,source中为script脚本片段,params为脚本参数值。

之所以通过params传递,可突破ES对脚本编译限制,虽然也可以通过下面操作来修改该解析上限的配置:

PUT /_cluster/settings

  "transient": 
    "script.max_compilations_per_minute": 40
  

重要:对于大批量数据,ES都需要单独的编译解析,当进行bulk update时,若是每一个脚本都实时编译的话,可想而知很快就会达到上限。知其然知其所以然,对于ES中都只会在第一次进行解析这个脚本,之后便无需再次解析,当脚本中有常数变量时,ES会实时编译脚本,故结合script中的param功能,设法将脚本中的变量通过param传递进去,从而可以从根本上解决脚本编译解析限制的问题。

接下来,我们看下在Java中怎么样基于6.8.6版本构建tcp client执行painless脚本引擎? 

补充:对updateByQuery API的调用从获取索引快照开始,索引使用内部版本控制找到任何文档。

试想当一个文档在快照的时间和索引请求过程之间发生变化时,会发生版本冲突。当版本匹配时,updateByQuery更新文档并增加版本号。上述为了防止版本冲突导致updateByQuery中止,还可以设abortOnVersionConflict(false),之所以这么做,是有可能它试图获取在线映射更改,而版本冲突意味着在相同时间开始updateByQuery和试图更新文档的冲突文档,该更新将获取在线映射更新,updateByQuery也可以通过指定pipeline来使用ingest节点。其中UpdateByQueryRequestBuilder API可支持过滤更新的文档,限制要更新的文档总数,并使用脚本更新文档,即时刷入磁盘,重试次数等。

Retry: 当客户端A、B几乎同时获取同一个文档, 一并获得_version版本信息, 假设此时_version=1。

接着,客户端A修改文档中的部分内容, 将修改写入索引。而Elasticsearch在写入索引时, 检查客户端A提交的文档的版本信息(这里仍然是1) 和 现存的文档的版本信息(这里也是1), 发现相同后, 执行写入操作, 并修改版本号_version=2。然后客户端B也修改文档中的部分内容, 其操作写回索引的速度稍慢,此时同样执行写入过程,ES发现客户端B提交的文档的版本为1, 而现存文档的版本为2,即发生冲突,此次partial update将失败-重试。

并发控制策略:partial update并发控制策略-乐观锁

结尾

小试牛刀案例:如何通过脚本引擎指定多个字段update?

方式No.1:

ctx._source.putAll(params) 

方式No.2:

for (k in params.keySet())if (!k.equals('ctx'))ctx._source.put(k, params.get(k))

末尾:后续Java框架体系,数据库技术体系,大数据体系进阶案例实战都会同时更新,微信公众号同步,旨在分享的初衷,欢迎提出宝贵建议^_^

以上是关于记一次ES查询结果集失败的主要内容,如果未能解决你的问题,请参考以下文章

elasticsearch(es)查询api,结果集排序,分页,范围查询

记一次生产SQL强势优化

sql 将查询的结果集一次性插入到表变量中

可以通过查询结果获取结果集行数吗?

使用非常大的结果集查询 Postgresql

如何使用 SqlCommand 返回多个结果集?