es集群share平衡问题
作者:互联网
今天把集群关闭后会造成shards移动到其他正常节点,但是重新启动shares并不会移动到恢复的节点。
在网上找了一会儿资料发现一个方法:
把副本数调整为0,会自动平衡shares,再增加number_of_replicas,会自动再建立副本数。(怀疑是重启过程出现副本数损坏了),此时shared又达到集群之间平衡了
PUT _settings
{
"number_of_replicas":0
}
PUT /fact_terminal_keepalive_info10/_settings
{
"index": { "routing.allocation.total_shards_per_node" : "20" }
}
每个节点最大的分片数量,少了分片会放置不上去一直等待分配
标签:副本,replicas,share,number,shares,集群,节点,es 来源: https://www.cnblogs.com/yaohaitao/p/13230471.html