elasticsearch 出现 cluster_block_exception read_only_allow_delete问题

做爬虫的时候,只是简单的存入elasticsearch中,在测试服务器上结果发现老是插入不进去:

提示的错误:

logstash.outputs.elasticsearch] retrying failed action with response code: 403 ({"type"=>"cluster_block_exception", "reason"=>"blocked by: [FORBIDDEN/12/index read-only / allow delete (api)]

这是由于ES新节点的数据目录data存储空间不足,导致从master主节点接收同步数据的时候失败,此时ES集群为了保护数据,会自动把索引分片index置为只读read-only

解决方法:

  • 1 磁盘扩容,可在配置文件中修改ES数据存储目录,重启ES
  • 2 2.放开索引只读设置,在服务器上通过curl工具发起PUT请求
PUT _settings
    {
    "index": {
    "blocks": {
    "read_only_allow_delete": "false"
    }
    }
    }

这里我使用的是第二种方法。

如果es出现其他问题,记得搜关键词,不要太多,就能搜索到答案的。

欢迎光临我的小网站:www.00reso.com
陆续优化中,后续会开发更多更好玩的有趣的小工具。

你可能感兴趣的:(工具使用,python_bugs,es插入数据失败)