启动多个节点不分配副本分片
Posted
技术标签:
【中文标题】启动多个节点不分配副本分片【英文标题】:Starting multiple nodes do not allocate replica shards 【发布时间】:2016-08-28 15:56:48 【问题描述】:所以,我刚开始在本地机器上使用 Elasticsearch。
我已经启动了 5 个 Elasticsearch 节点实例。 (简单./bin/elasticsearch
)
curl -s 'localhost:9200/_cat/nodes?v'
给出:
host ip heap.percent ram.percent load node.role master name
127.0.0.1 127.0.0.1 5 99 3.13 d m Shirow Ishihara
127.0.0.1 127.0.0.1 7 100 3.13 d m Madame Web
127.0.0.1 127.0.0.1 5 100 3.13 d m Anthropomorpho
127.0.0.1 127.0.0.1 5 100 3.13 d m Paste-Pot Pete
127.0.0.1 127.0.0.1 2 100 3.13 d * Mephisto
我的索引有 2 个主分片和 5 个副本(共 10 个副本)。
我读过 ES 会自动水平扩展并将分片分配/移动到新节点。但是,所有 10 个副本仍然未分配,两个主分片都在同一个节点中。
curl -s 'localhost:9200/_cat/allocation?v'
给出:
shards disk.indices disk.used disk.avail disk.total disk.percent host ip node
0 0b 105.5gb 6.2gb 111.8gb 94 127.0.0.1 127.0.0.1 Shirow Ishihara
0 0b 105.5gb 6.2gb 111.8gb 94 127.0.0.1 127.0.0.1 Paste-Pot Pete
2 318b 105.5gb 6.2gb 111.8gb 94 127.0.0.1 127.0.0.1 Mephisto
0 0b 105.5gb 6.2gb 111.8gb 94 127.0.0.1 127.0.0.1 Anthropomorpho
0 0b 105.5gb 6.2gb 111.8gb 94 127.0.0.1 127.0.0.1 Madame Web
10 UNASSIGNED
【问题讨论】:
您没有提供足够的信息来诊断问题。 *** 上还有其他答案详细说明了如何找出未分配分片的原因(例如,我的最佳答案之一) @Alcanzar:我已经阅读了你的答案。在这种情况下,我需要知道我做错了什么。因此,我已经提供了所有信息。很乐意提供更多信息。 你试过什么?当您尝试强制分配分片时,输出是什么?您的映射上的设置是什么样的?有多少副本和分片。 没有尝试强制分片分配,因为我想首先知道它们没有被自动分配的问题是什么。已经说明了分片和副本的数量以及磁盘统计信息。 试图强制它分配会告诉你为什么它没有自动分配 【参考方案1】:您的可用磁盘空间太少,ES 实际上正试图移走一些分片。但是您的所有节点都在同一台机器上,因此没有其他地方可以移动它们并且它们保持未分配状态。已用磁盘空间超过总磁盘大小的 90%,ES 达到了高水位线。
阅读here 了解更多信息。
【讨论】:
谢谢。这很有帮助。释放磁盘空间后我会再试一次并在这里发布。 由于声誉低下,我无法对此答案投赞成票。但肯定也会帮助其他开发人员。以上是关于启动多个节点不分配副本分片的主要内容,如果未能解决你的问题,请参考以下文章
禁用分配的单个副本的意外 ElasticSearch 分片分配