Elasticsearch调优,最全最新

Elasticsearch调优

在线刷题小程序

微信搜索:傲浮刷题,或者扫描文章底部二维码即可食用

前语

随着数据量的增长,MySQL在很多场景下,似乎已经无能为力了,所以有不少应用的数据从MySQL迁移到了Elasticsearch,我们的应用就在其中。由于开发时间紧张,所以仅仅只是了解了下Elasticsearch的基本知识,随便写了几个Demo,然后直接在正式的环境中使用Elasticsearch。因为给我们应用分配的Elasticsearch服务器足够强大,Elasticsearch本身也设计的足够好,当时数据量也没有那么海量,并发也没有那么高,所以一直没有问题,但是该来的总会来,随着公司的发展,数据量也在直线增长,并发越来越高,性能问题越来越明显,看着公司内,有越来越多的应用接入了Elasticsearch,看着公司外,有越来越的公司也引入了Elasticsearch,我意识到必须深入的了解下Elasticsearch。经过大半年的断断续续学习,终于对Elasticsearch有了一定的了解,但是我毕竟不是专门做搜索引擎的,更没有强大的算法、数据结构思维,所以对Elasticsearch的了解也仅仅是停留在“用的不这么差”的程度上,所以本篇博客主要是写给Java应用开发看的,如果是专门做搜索引擎的,就一笑而过吧。

优化漏斗

凡是涉及到某个组件的性能调优,我们在脑海中就要浮现出一张很经典的优化漏斗图:
Elasticsearch调优,最全最新_第1张图片
左边就是很经典的漏斗图,漏斗分为四层,从上到下分别为:

  • 使用
  • 应用配置
  • JVM
  • OS

总的来说,层级在上面的,调优的效果越明显,由于我们的Elasticsearch是独立部署在服务器上的,所以服务器的配置也至关重要。对于Elasticsearch而言,硬件配置是基础,正确的使用姿势是核心,缺一不可。

本篇博客,我们就从这五个方面来对Elasticsearch进行调优。

硬件

Elasticsearch和普通应用不同,普通应用也许4C8G的配置就足够了,但是Elasticsearch需要比较好的配置,如果配置实在太低,就放弃Elasticsearch吧。

节点配置

Elasticsearch有三个常用的节点类型:Master节点、数据节点、协调节点,我们来看下这三种节点的职责以及需要什么样的配置。

数据节点:主要负责保存数据,查询数据,所以这个节点的配置要求是最高的,不管是CPU、内存、磁盘,都要高配的,磁盘最好采用RAID0、SSD,为什么是RAID0?因为Elasticsearch本身就有冗余副本的存在,可以保证不丢失数据;

Master节点:一个Elasticsearch集群中只会有一个Master节点,Master主要负责管理集群变更、元数据的管理,该节点不需要太好的配置;

协调节点:接受客户端的请求,并将请求路由到数据节点,然后将数据节点返回的内容进行处理,比如合并,排序等等,所以此节点对CPU、内存的要求是比较高的。

为了更加清晰,我给大家准备了一个表格:

节点类型 CPU 内存 磁盘
数据节点 高配置 高配置 高配置
Master节点 低配置 低配置 低配置
数据节点 高配置 高配置 高配置
协调节点 高配置 高配置 低配置

我们在做数据查询的时候,协调节点会把请求路由给多个数据节点,多个数据节点再把数据响应给协调节点,协调节点再对数据进行加工处理,返回给客户端,需要做多次数据搬运,而且数据可能都不小,所以低延迟的网络也是必需的。

节点的单一职责

编码的时候,为了代码的扩展性、可维护性,我们需要满足“单一职责”,在分配节点的时候,为了Elasticsearch的性能,也需要满足“单一职责”,即:一个节点只做一件事情。

想想也是,Master节点作为集群的老大,相当于公司管理,数据节点是大头兵,如果Matser节点既要做管理的事情,又要做大头兵的事情,那会出现什么局面?

所以在条件允许的情况下,一个节点只做一件事情。

分片数(每个分片的大小控制在30-50G,3-5个分片可以满足大部分场景)

每个分片的大小控制在30-50G,Elasticsearch是严重依赖PageCache的,最好保证分片中的数据有1/3都在PageCache中。

如果你不想计算到底需要多少个分片,可以无脑配置3-5个分片,这满足大部分场景,毕竟一般的公司,你申请Elasticsearch集群,没有特殊的说明,运维小伙伴也是直接给你一个默认配置下的Elasticsearch集群,也不会特意问你数据的规模,如果你查询一下,会发现就是3-5个分片。

副本数(一个副本就够)

一个副本就够了,如果是数据迁移,为了追求迁移的速度,甚至可以把副本关闭了,等数据迁移完毕,再开启副本。

OS配置

禁用/少用swap

OS在内存不够用的时候,会将部分数据交换到swap空间(磁盘)上,但是磁盘的速度哪比得上内存的速度,所以会导致性能直线下降,所以应该关闭swap。

如果完全禁用swap,当内存不够用,OS可能会kill进程,所以为了可用性,也有一些人认为不要完全禁用swap,可以将swap设置成一个很小的数值,这样当性能直线下降,开发、运维都会有感知,可以给开发、运维处理的时间。

文件描述符设置为65535或更大

关闭atime

每次读取文件,Linux都会更新atime,没有实际用处,可以关闭。

设置最少的线程数量

Elasticsearch运行时会创建多种线程池来执行各种各样的操作,所以必须保证Elasticsearch可以创建足够的线程,而这个数量最少为4096。

减少TCP重传次数

Elasticsearch集群各个节点间的通信是使用TCP的,但是在丢包的情况下,Linux最多重传15次,而这15次重传会耗时900秒以上。这意味着系统发现网络分区故障需要非常长的时间,所以可以适当降低TCP重传次数。

JVM配置

最小堆内存和最大堆内存必须一样

如果最小堆内存、最大堆内存不一样,在运行的过程中,会频繁的进行伸缩。

最大堆内存不要超过服务器内存的一半

Elasticsearch是严重依赖PageCache的,最好保证分片中的数据有1/3都在PageCache中,所以最大堆内存不要超过服务器内存的一半,剩下的给OS使用。

最大堆内存不要超过32G(为了保险,可以设置30G)

最大堆内存一旦超过32G,JVM就会禁用指针压缩技术,这个时候,可能需要40-50G的内存才可以达到原先32G的效果,所以最大堆内存不要超过32G。32G是一个估算值,有些时候,可能不到32G就已经禁用了指针压缩技术,所以为了保险,最大堆内存可以设置30G。

垃圾收集器选用G1

对于大内存来说,G1比CMS给力,所以可以采用G1垃圾收集器,还需要调整两个参数,如果G1清理失败了,会转为单线程垃圾收集,这就太恐怖了,而G1默认的InitiatingHeapOccupancyPercent设置太乐观了,可能导致清理失败,所以需要适当降低InitiatingHeapOccupancyPercent。

-XX:G1HeapRegionSize=16m
-XX:InitiatingHeapOccupancyPercent=30

应用配置

调整刷写频率

将文档写入Elasticsearch,会先写到buffer中,然后定时将buffer中的数据刷写到segment中,默认是1秒,可以适当调高此配置,当然buffer写满了,也会刷写到segment,但是大部分场景下,都是满足了时间的条件才触写刷新的。

配置项如下:

index.refresh_interval //默认是1秒,可以适当调高此配置
indices.memory.index_buffer_size //既可以配置字节数,又可以配置比例,这个参数是节点内所有分片共享的

写translog改为异步形式

translog是用来保证数据不丢失的,类似于MySQL的binlog,默认写translog是同步的,可以改为异步的形式。

配置项如下:

index.translog.durability: async //默认是request
index.translog.sync_interval: 60s

使用

尽可能使用系统自动生成的Id

如果不使用系统自动生成的Id,Elasticsearch会检查给定的Id是否重复,从而产生IO,如果可以的话,尽可能使用系统自动生成的Id。

批量写入

经验值是一次性写入5000到10000条数据。

以前我一直觉得批量写入几乎只有在数据迁移的时候才可能实现,平时几乎都是单条写入的,其实如果业务允许,可以先将请求用MQ中转下,Consumer消费MQ数据,将数据放入阻塞队列,另外一个线程用Google Guava提供的方法批量从阻塞队列中获取数据,最终批量写入Elasticsearch。

示例代码如下:
在这里插入图片描述
当然这样就增加代码的复杂度了,还要处理各种的异常场景,我这里仅仅是突然想到一个方法,和大家分享下。

mapping

字段越少越好,合适的数据类型
使用Keyword类型
对于等值查询而言,keyword比数值类型性能更好,所以如果不需要范围查询,可以使用Keyword类型。 不需要分词的文本,最好使用keyword,不然既影响写入性能,又占用空间。

如果不需要被索引,设置index为no

有不需要进行搜索的字段,可以设置其不需要索引,不然既影响写入性能,又占用空间。

如果不需要聚合、排序,设置doc_values为false

Doc values是基于列式存储的结构,聚合、排序非常高效,默认开启,占用空间。

扁平化(尽可能避免nested、parent-child)

尽可能避免nested、parent-child,不然既影响写入性能,又影响查询性能。

如果一个字段不需要算分,可以关闭Norms

如果当前字段不需要计算评分,设置false可以节省大量的磁盘空间,有助于提升性能。

不要使用Dynamic Mapping

如果使用Dynamic Mapping,那默认情况下,所有字段都是需要被索引的,而且都会创建doc_values,这肯定不是我们希望的,所以不要使用Dynamic Mapping,要自己严格定义mapping。

不要对text类型的字段进行排序

预索引

商品价格区间的搜索,比如可以查看价格100-200的商品,200-500的商品,500-1000的商品,那索引中必然含有price字段,我们可以通过范围查询搜索出对应的商品,但是范围查询的性能必然没有等值查询好,那我们可以在索引中再加一个字段:price_type(当price为100-200,price_type=1,当price为200-500,price_type=2,以此类推),这样我们就可以使用等值查询了。

查询某个月的数据,那索引中必然含有time字段,我们可以通过范围查询搜索出对应的数据,如果我们加一个month字段(yyyyMM),就可以采用等值查询了。

使用索引模板,对数据进行分片

相当于MySQL的分库分表,但是更加方便,只要定义一个模板,推送的数据满足相应的条件,就可以自动将索引创建出来。

避免深度分页,使用scroll和search_after分页

HBase和Elasticsearch搭配更香

Elasticsearch严重依赖PageCache,最好不要把太多字段放入Elasticsearch,会占用大量PageCache,查询会走到硬盘,严重影响查询性能,可以把核心字段、条件字段放Elasticsearch,其余数据放到HBase,通过_id去HBase查询更为明细的数据,如果HBase不可用,再查询MySQL,提高可用性。

使用Routing

默认情况: 插入数据是根据_id进行路由,选择某个分片:

优点:使用简单,每个分片的数据量比较均匀;
缺点:查询会扫描所有分片,开销比较大,性能取决于最慢的分片。
使用routing: 插入数据是根据给定的routing进行路由,写入到某个分片,查询的时候,也可以指定查询某个分片。

优点:性能更好;
缺点:使用比较复杂,需要自己控制写入的分片和查询的分片。
以上就是常用的Elasticsearch调优技巧,当然Elasticsearch的调优技巧远不止这些,比如比较高端的_sourse、store设置等等。

大家有没有发现,其中好多调优技巧,都是通用的,比如合适的数据类型,字段越少越好,预索引,比如增加文件描述符数量、关闭atime等等。

刷题小程序

更多刷题小程序 请扫描下方二维码在线刷题
Elasticsearch调优,最全最新_第2张图片

你可能感兴趣的:(elasticsearch,大数据)