背景
有关HBase集群如何做不停服的数据迁移一直都是云HBase被问的比较多的一个问题,目前有许多开源的工具或者HBase本身集成的方案在性能、稳定性、使用体验上都不是很好,因此阿里云提供了BDS迁移服务,可以帮助云上客户实现TB级数据规模不停机迁移
HBase大版本升级, 1.x升级2.x
集群配置升级,8核16G升级为16核32G
集群网络环境变更,经典网络迁移到VPC
异地跨机房迁移
HBase业务拆分
HBase不停机迁移主要包括三个部分:表结构的迁移、实时数据同步、历史全量数据迁移。
对于表结构迁移来说,开源的DataX还是HBase本身都不提供表结构迁移的功能,只能进行手动建表,手动建表会存在几个问题:
如果源集群表数据较多,客户手动建表比较麻烦
手动建表可能忽略表分区,导致目标表分区很不合理,迁移完之后影响请求RT
对于实时数据同步来说,有两种现有的方案:客户端应用双写、HBase Replication
客户端应用双写需要业务方对客户端代码进行改造,并且双写会放大毛刺,只要有一个集群出现问题就会影响业务写入,对于实时要求性比较强的业务是不能接受的
HBase Replication 对于大集群或者写入压力比较大的集群来说,存在如下几个问题:
同步的逻辑集成在RegionServer当中,RegionServer读写和同步会相互影响
不同的RegionServer同步的压力可能是不同的,不抗热点
如果遇到同步积压,往往RegionServer的负载已经很高不太容易通过调整线程来解决,只能等低峰期慢慢消化或者增加RegionServer节点
对于全量数据迁移来说,可以使用DataX、HBase CopyTable、HBase创建和导出快照
DataX走的API层面的迁移,对于源集群大表的全表Scan和目标表大量的Put都会对集群业务产生影响,增加业务的读写毛刺,另外API层面的迁移比文件层的拷贝会多占用50%以上的流量
HBase创建和导出快照,快照的创建和导出都是在源集群上完成,会影响源集群稳定性,创建快照会暂用源集群的存储资源,对一张大表创建完快照,然后进行major compaction可能会导致HDFS容量水位迅速上涨,可能会写满HDFS
为了解决了开源方案存在的不足,支持TB、PB级别的数据迁移,我们阿里内部自研了一套迁移同步服务BDS,来满足阿里云上不同客户的需求。
对于HBase集群相互迁移,BDS支持表结构迁移、全量数据迁移以及增量数据同步
表结构迁移
自动创建目标表并保证分区一致,避免迁移后表单分区数据量过大,影响目标表读写RT
以表级别为粒度,支持批量提交
全量数据迁移
走文件层的数据文件拷贝比通常API层的数据迁移通常能节省50%以上的流量
自动处理Region Split、HFile Compaction
单节点迁移速度可达到100MB/s,节点数支持水平扩展,能够满足支持TB、PB级别的数据迁移
迁移速度可以动态配置
增量数据同步
异步解析源集群HDFS上的WALs并在目标集群进行回放,增量同步不会和源集群HBase进行交互
有完善的错误重试机制,实时监控任务速度和进度,支持任务失败报警
同步吞吐动态可配
BDS稳定性
BDS采用的是分布式的架构,master通过zk监听worker节点是否存活,如果节点宕机会对任务进行重分配,完善的failover机制
完善的监控体系、报警机制,监控表迁移的进度,迁移了多大的数据量,迁移的速率,实时同步的延迟等信息,对于需要人为介入的异常进行报警
BDS支持任务断点续传
源集群业务稳定性
对于实时的数据同步,开源的方案走的是HBase Replication,同步逻辑集成在RegionServer中,RegionServer本身的读写和数据同步相互影响。BDS和HBase集群解耦,独立部署,避免对HBase集群CPU、内存等机器资源的占用
全量数据迁移、实时数据同步只访问源集群的HDFS,全程不会和HBase做交互,尽量避免对源集群业务产生的影响
可以动态调整全量数据迁移和实时数据同步的迁移速率
下图为集群迁移的基本步骤
购买及环境准备
购买BDS迁移服务
不同网络环境需要打通BDS到各个集群的网络
提交迁移任务
登陆BDS操作页面
录入源集群和目标集群的信息
开启增量同步通道,同步源集群实时写入数据到目标集群
提交历史数据迁移任务,迁移历史存量数据文件
验证
业务验证
业务切换
网路环境:相同VPC集群版本:自建HBase1.x迁移到云HBase1.x集群规模:集群20台RegionServer数据规模:数据总量30+T,迁移20+表,日增几百G要求:不停服迁移,尽可能避免读在线业务的影响
BDS单节点(4cores 8G)的迁移最大速度 50MB/s ~ 100MB/s,增量同步任务单机能最多处理5台RS的日志, 单节点日志迁移速度最大50 ~ 60MB/s。源集群有20台节点, 日增数据几百G,写入量也不是很大,BDS每个节点同时能够处理5个RS的日志,因此,BDS至少需要4个Worker节点。
详见《BDS服务开通》,开通了BDS之后,需要配置BDS访问的白名单,然后配置页面登陆的账户密码,进行BDS操作页面的登陆。
购买BDS集群之后,需要关联源集群和目标集群。对于目标云HBase集群来说,BDS控制台提供了自动关联集群的功能,不需要手动的录入集群的信息。
控制台点击关联集群会罗列出所有BDS所绑定的VPC下的云HBase集群,选择对应的目标集群进行绑定,绑定完成之后,可以在BDS HBase数据源页面看到绑定的集群信息。
对于自建HBase,需要绑定ip和hostname的映射关系并手动录入集群信息。自建HBase集群机器使用的主机名可能是BDS不识别的,因此在录入自建HBase集群信息之前,需要配置集群主机名和ip的映射关系到BDS。查看自建集群的/etc/hosts,将/etc/hosts信息copy到配置项中,在BDS上录入集群ip和hostname的映射关系。
回到HBase数据源页面,添加数据源。
录入自建集群的HDFS地址、HBase的版本、HBase根目录、HBase连接信息,点击添加会对网络连通性、HBase版本进行校验,源集群和目标集群都验证通过之后,就可以配置迁移任务。
当上面的所有前置条件都配置完成后,就可以开始迁移任务配置。下面详细介绍下具体的迁移步骤。
首先登陆BDS界面,点击任务管理选择HBase实时数据同步,选择创建HBase同步通道,进入通道创建的页面。
选择源集群和目标集群,按照表为粒度批量提交要迁移的表,创建同步通道。BDS在提交同步通道的时候自动检测目标表是否存在,不过不存在创建目标表,保证原表和目标表完全一致。这里推荐使用BDS自动建表保证目标集群和源集群的分区一致。同步通道创建完成之后,我们查看同步通道的进度。
总结一项可以查看整个通道的总延迟,BDS处理的最大最小耗时,读写总流量和速率表信息详情可以查看表put、delete操作总次数,表开始同步的时间点和最近更新的时间点。日志信息详情主要罗列了各个日志同步的进度,点位和速率。
增量数据同步通道完成之后,接下来提交全量数据迁移任务,在任务管理里面我们选择HBase历史数据批量迁移,进入历史数据管理页面,点击创建任务,进入全量数据创建页面,选择对应的源集群和目标集群,输入需要迁移的表,点击创建。
全量数据迁移任务提交后,BDS会去验证目标表是否存在,不存在就自动创建目标表,任务开始之后我们可以查看各个表迁移的进度和速率。
当全量数据迁移完成,实时同步的延迟在业务可控范围之内(比如源集群和目标集群同步延迟1秒以内),业务可以进行数据的抽样校验,以及开始部分业务灰度。
验证通过之后,找个业务低峰期进行业务切流,切流过程中可能遇到问题,回切流量到源集群,为了防止流量切回源集群出现源集群少数据情况,需要业务在切流之前开启目标集群到源集群的实时同步通道,将切流后的实时写入数据同步回源集群。
业务稳定在新集群上运行了一段时间之后,没有发现问题,便可以中断BDS实时同步的通道,释放掉BDS资源。
文章不错?点个【在看】吧! ?