某云elasticsearch节点失效,手动重置primary,迁移分区

Posted 吾生也有涯,而知也无涯

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了某云elasticsearch节点失效,手动重置primary,迁移分区相关的知识,希望对你有一定的参考价值。

某云es节点失效,重置primary,迁移分区

接手另一个团队的elasticsearch服务,服务布署在某云上,迁移计划执行期间,集群状态yellow,多sharding UNASSIGNED

夹一个私货,个人其实是不喜欢云的,有能力自已维护机房和物理服务器的,还是用服务器成本低

集群版本5.5,使用kibana作监控,未使用cerebro

简单排查一番后,某云反应是硬盘失效,确定数据无法完全恢复

10个有效节点,2个节点的数据完全丢失,多index异

企业微信截图_15632557221048

elasticsearch 只在数据无损的情况在后台自动执行迁移复制

可能会导致数据损坏的迁移,需要明确手动来执行

对主节点数据无法完全恢复的场景,es提供两种操作方式,都需要明确指定 "accept_data_loss":true

https://www.elastic.co/guide/en/elasticsearch/reference/5.5/cluster-reroute.html

https://www.elastic.co/guide/en/elasticsearch/reference/current/cluster-reroute.html

  • 1 allocate_stale_primary 选择一个从节点作为主节点(存在有效从节点的情况下),若原主节点恢复,则会以新主(原从)覆盖旧主的数据

    node选择一个存在从shard的node

post http://3464.xyz.com:9200/_cluster/reroute
{
    "commands" : [
            {
            "allocate_stale_primary" : {
                "index" : "uc_2020", "shard" : 2,
               "node" : "3456","accept_data_loss":true
            }
        }
    ]
}
  • 2 allocate_empty_primary 指定一个空主,若原主节点恢复,则旧主会被完全清除
post http://3464.xyz.com:9200/_cluster/reroute
{
    "commands" : [
            {
            "allocate_empty_primary" : {
                "index" : "uc_2019", "shard" : 2,
               "node" : "3456","accept_data_loss":true
            }
        }
    ]
}

因为旧主已经不可能恢复了,查看sharding的状态,还有从的指定allocate_stale_primary,所有从都失效,或index 的replicas为1的指定allocate_empty_primary

因为两个节点的丢失,shard分配一团乱,顺带手动执行一些shard的迁移

POST http://3464.xyz.com:9200/_cluster/reroute
{
    "commands" : [
        {
            "move" : {
                "index" : "test", "shard" : 0,
                "from_node" : "node1", "to_node" : "node2"
            }
        }
    ]
}

End

以上是关于某云elasticsearch节点失效,手动重置primary,迁移分区的主要内容,如果未能解决你的问题,请参考以下文章

elasticsearch 重置密码

elasticsearch 重置密码

某云跨平台(I版到K版)迁移实践总结

Elasticsearch之集群脑裂

Elasticsearch之集群脑裂

如何防止ElasticSearch集群出现脑裂现象(转)