用Codis实现Redis分布式集群

一、Redis集群概述

Redis官方近期推出的Redis Cluster,Redis集群有三种实现机制,分别介绍如下,(1)客户端分片,(2)代理分片,(3)Redis Cluster


1.1 客户端分片

这种方案将分片工作放在业务程序端,程序代码根据预先设置的路由规则,直接对多个Redis实例进行分布式访问。这样的好处是,不依赖于第三方分布式中间件,实现方法和代码都自己掌控,可随时调整,不用担心踩到坑。

这实际上是一种静态分片技术。Redis实例的增减,都得手工调整分片程序。基于此分片机制的开源产品,现在仍不多见。

这种分片机制的性能比代理式更好(少了一个中间分发环节)。但缺点是升级麻烦,对研发人员的个人依赖性强——需要有较强的程序开发能力做后盾。如果主力程序员离职,可能新的负责人,会选择重写一遍。

所以,这种方式下,可运维性较差。出现故障,定位和解决都得研发和运维配合着解决,故障时间变长。


1.2 代理分片

这种方案,将分片工作交给专门的代理程序来做。代理程序接收到来自业务程序的数据请求,根据路由规则,将这些请求分发给正确的Redis实例并返回给业务程序。

这种机制下,一般会选用第三方代理程序(而不是自己研发),因为后端有多个Redis实例,所以这类程序又称为分布式中间件。

这样的好处是,业务程序不用关心后端Redis实例,运维起来也方便。虽然会因此带来些性能损耗,但对于Redis这种内存读写型应用,相对而言是能容忍的。

这是我们推荐的集群实现方案。像基于该机制的开源产品Twemproxy,便是其中代表之一,应用非常广泛。

1.3 Redis Cluster

在这种机制下,没有中心节点(和代理模式的重要不同之处)。所以,一切开心和不开心的事情,都将基于此而展开。

Redis Cluster将所有Key映射到16384个Slot中,集群中每个Redis实例负责一部分,业务程序通过集成的Redis Cluster客户端进行操作。客户端可以向任一实例发出请求,如果所需数据不在该实例中,则该实例引导客户端自动去对应实例读写数据。

Redis Cluster的成员管理(节点名称、IP、端口、状态、角色)等,都通过节点之间两两通讯,定期交换并更新。

由此可见,这是一种非常“重”的方案。已经不是Redis单实例的“简单、可依赖”了。可能这也是延期多年之后,才近期发布的原因之一。

这令人想起一段历史。因为Memcache不支持持久化,所以有人写了一个Membase,后来改名叫Couchbase,说是支持Auto Rebalance,好几年了,至今都没多少家公司在使用。

这是个令人忧心忡忡的方案。为解决仲裁等集群管理的问题,Oracle RAC还会使用存储设备的一块空间。而Redis Cluster,是一种完全的去中心化……


二、 Twemproxy代理

Twemproxy是一种代理分片机制,由Twitter开源。Twemproxy作为代理,可接受来自多个程序的访问,按照路由规则,转发给后台的各个Redis服务器,再原路返回。

这个方案顺理成章地解决了单个Redis实例承载能力的问题。当然,Twemproxy本身也是单点,需要用Keepalived做高可用方案。

我想很多人都应该感谢Twemproxy,这么些年来,应用范围最广、稳定性最高、最久经考验的分布式中间件,应该就是它了。只是,他还有诸多不方便之处。

Twemproxy最大的痛点在于,无法平滑地扩容/缩容。

这样导致运维同学非常痛苦:业务量突增,需增加Redis服务器;业务量萎缩,需要减少Redis服务器。但对Twemproxy而言,基本上都很难操作(那是一种锥心的、纠结的痛……)。

或者说,Twemproxy更加像服务器端静态sharding。有时为了规避业务量突增导致的扩容需求,甚至被迫新开一个基于Twemproxy的Redis集群。

Twemproxy另一个痛点是,运维不友好,甚至没有控制面板。


三、Codis

Codis由豌豆荚于2014年11月开源,基于Go和C开发,是近期涌现的、国人开发的优秀开源软件之一。

https://github.com/CodisLabs/codis

一、概要

    Codis 是一个分布式 Redis 解决方案, 对于上层的应用来说, 连接到 Codis Proxy 和连接原生的 Redis Server 没有明显的区别 (有一些命令不支持), 上层应用可以像使用单机的 Redis 一样使用, Codis 底层会处理请求的转发, 不停机的数据迁移等工作, 所有后边的一切事情, 对于前面的客户端来说是透明的, 可以简单的认为后边连接的是一个内存无限大的 Redis 服务,当然,前段时间redis官方的3.0出了稳定版,3.0支持集群功能,codis的实现原理和3.0的集群功能差不多。

二、架构

三、角色分批

1
2
3
4
5
6
7
8
9
10
11
12
13
zookeeper集群:
10.10.0.47
10.10.0.48
10.10.1.76
codis-config、codis-ha:
10.10.32.10:18087
codis-proxy:
10.10.32.10:19000
10.10.32.49:19000
codis-server:
10.10.32.42:6379、10.10.32.43:6380(主、从)
10.10.32.43:6379、10.10.32.44:6380(主、从)
10.10.32.44:6379、10.10.32.42:6380(主、从)

四、部署

1、安装zookeeper

1
yum -y  install  zookeeper jdk   ##安装服务
1
2
3
4
vim  /etc/hosts   ##添加host
10.10.0.47 ZooKeeper-node1
10.10.0.48 ZooKeeper-node2
10.10.1.76 ZooKeeper-node3
1
2
3
4
5
6
7
8
9
10
vim  /etc/zookeeper/conf/zoo .cfg  ##撰写zk的配置文件
maxClientCnxns=50
tickTime=2000
initLimit=10
syncLimit=5
dataDir= /data/zookeeper/
clientPort=2181
server.1=ZooKeeper-node1:2888:3888
server.2=ZooKeeper-node2:2888:3888
server.3=ZooKeeper-node3:2888:3888
1
2
3
mkdir  /data/zookeeper/  ##创建zk的datadir目录
echo  "2"  > /data/zookeeper/myid   ##生成ID,这里需要注意, myid对应的zoo.cfg的server.ID,比如ZooKeeper-node2对应的myid应该是2
/usr/lib/zookeeper/bin/zkServer .sh start   ## 服务启动

2、go安装(codis是go语言写的,所以那些机器需要安装你懂得)

1
2
3
4
5
6
7
8
9
10
11
12
wget https: //storage .googleapis.com /golang/go1 .4.1.linux-amd64. tar .gz
tar  -zxvf go1.4.1.linux-amd64. tar .gz
mv  go  /usr/local/
cd  /usr/local/go/src/
bash  all. bash
cat  >> ~/.bashrc << _bashrc_export
export  GOROOT= /usr/local/go
export  PATH=\$PATH:\$GOROOT /bin
export  GOARCH=amd64
export  GOOS=linux
_bashrc_export
source  ~/.bashrc

3、下载并编译codis(codis-config、codis-proxy、codis-server所在的机器)

1
2
3
4
5
6
mkdir  /data/go
export  GOPATH= /data/go
/usr/local/go/bin/go  get github.com /wandoulabs/codis
cd   /data/go/src/github .com /wandoulabs/codis/
. /bootstrap .sh
make  gotest

五、服务启动及初始化集群

1、启动 dashboard(codis-config上操作)

1
2
3
4
5
6
7
cat  /etc/codis/config_10 .ini  ##撰写配置文件
zk=10.10.0.47:2181,10.10.0.48:2181,10.10.1.76:2181
product=zh_news
proxy_id=codis-proxy_10
net_timeout=5000
proto=tcp4
dashboard_addr=10.10.32.10:18087
1
cd  /data/go/src/github .com /wandoulabs/codis/  &&  . /bin/codis-config  -c  /etc/codis/config_10 .ini  dashboard &

2、初始化 slots (codis-config上操作)

1
cd  /data/go/src/github .com /wandoulabs/codis/  &&  . /bin/codis-config  -c  /etc/codis/config_10 .ini slot init

3、启动 Codis Redis , 和官方的Redis Server参数一样(codis-server上操作)

1
cd  /data/go/src/github .com /wandoulabs/codis/  && . /bin/codis-server  /etc/redis_6379 .conf &

4、添加 Redis Server Group , 每一个 Server Group 作为一个 Redis 服务器组存在, 只允许有一个 master, 可以有多个 slave, group id 仅支持大于等于1的整数(codis-config上操作)

1
2
3
4
5
6
7
cd  /data/go/src/github .com /wandoulabs/codis/
. /bin/codis-config  -c  /etc/codis/config_10 .ini server add 1 10.10.32.42:6379 master
. /bin/codis-config  -c  /etc/codis/config_10 .ini server add 1 10.10.32.43:6380 slave
. /bin/codis-config  -c  /etc/codis/config_10 .ini server add 2 10.10.32.43:6379 master
. /bin/codis-config  -c  /etc/codis/config_10 .ini server add 2 10.10.32.44:6380 slave
. /bin/codis-config  -c  /etc/codis/config_10 .ini server add 3 10.10.32.44:6379 master
. /bin/codis-config  -c  /etc/codis/config_10 .ini server add 3 10.10.32.42:6380 slave

5、设置 server group 服务的 slot 范围 Codis 采用 Pre-sharding 的技术来实现数据的分片, 默认分成 1024 个 slots (0-1023), 对于每个key来说, 通过以下公式确定所属的 Slot Id : SlotId = crc32(key) % 1024 每一个 slot 都会有一个特定的 server group id 来表示这个 slot 的数据由哪个 server group 来提供.(codis-config上操作)

1
2
3
4
cd  /data/go/src/github .com /wandoulabs/codis/
. /bin/codis-config  -c  /etc/codis/config_10 .ini slot range- set  0 300 1 online
. /bin/codis-config  -c  /etc/codis/config_10 .ini slot range- set  301 700 2 online
. /bin/codis-config  -c  /etc/codis/config_10 .ini slot range- set  701 1023 3 online

6、启动 codis-proxy  (codis-proxy上操作)

1
2
3
4
5
6
7
cat  /etc/codis/config_10 .ini  ##撰写配置文件
zk=10.10.0.47:2181,10.10.0.48:2181,10.10.1.76:2181
product=zh_news
proxy_id=codis-proxy_10   ##10.10.32.49上改成codis-proxy_49,多个proxy,proxy_id 需要唯一
net_timeout=5000
proto=tcp4
dashboard_addr=10.10.32.10:18087
1
2
cd  /data/go/src/github .com /wandoulabs/codis/  &&  . /bin/codis-proxy   -c  /etc/codis/config_10 .ini -L  /data/log/codis-proxy_10 .log  --cpu=4 --addr=0.0.0.0:19000 --http-addr=0.0.0.0:11000 &
cd  /data/go/src/github .com /wandoulabs/codis/  &&  . /bin/codis-proxy   -c  /etc/codis/config_49 .ini -L  /data/log/codis-proxy_49 .log  --cpu=4 --addr=0.0.0.0:19000 --http-addr=0.0.0.0:11000 &

OK,整个集群已经搭建成功了,截图给你们show show

六、codis-server的HA

codis-ha实现codis-server的主从切换,codis-server主库挂了会提升一个从库为主库,从库挂了会设置这个从库从集群下线

1、安装

1
2
3
4
5
6
7
export  GOPATH= /data/go
/usr/local/go/bin/go  get github.com /ngaut/codis-ha
cd   /data/go/src/github .com /ngaut/codis-ha
go build
cp  codis-ha  /data/go/src/github .com /wandoulabs/codis/bin/
使用方法:
codis-ha --codis-config=dashboard地址:18087 --productName=集群项目名称

2、使用supervisord管理codis-ha进程

1
yum -y  install  supervisord
1
2
3
4
5
6
7
8
9
10
11
/etc/supervisord .conf中添加如下内容:
[program:codis-ha]
autorestart = True
stopwaitsecs = 10
startsecs = 1
stopsignal = QUIT
command  /data/go/src/github .com /wandoulabs/codis/bin/codis-ha  --codis-config=10.10.32.17:18087 --productName=zh_news
user = root
startretries = 3
autostart = True
exitcodes = 0,2

3、启动supervisord服务

1
2
/etc/init .d /supervisord  start
chkconfig supervisord  on

此时,ps -ef |grep codis-ha 你回发现codis-ha进程已经启动,这个时候你去停掉一个codis-server的master,看看slave会不会提升为master呢


七、关于监控

关于整个codis集群的监控,我们这边用的是zabbix,监控的指标比较简单,所以这块大家有什么好的建议多给我提提哈

zookeeper:监控各个节点的端口联通性(以后想着把进程也监控上)

codis-proxy:监控了端口的联通性,这个监控远远不够呀

codis-server:监控了内存使用率、连接数、联通性

codis-ha:监控进程

dashboard:监控端口联通性


八、使用过程中遇到的问题

1、codis-proxy的日志切割,codis-proxy的默认日志级别是info,日志量很大,我们这边每天产生50多G日志,目前codis-proxy还不支持热重启,想修改启动参数还是比较麻烦的,日志切割推荐用logrotate

2、codis-proxy的监听地址默认没有具体ipv4,也就是codis-proxy启动之后没有0.0.0.0:19000这样的监听,这样会导致的问题就是前端lvs没有办法负载均衡codis-proxy,不能转发请求过,这个问题已联系作者处理了,在codis-proxy启动的配置文件中加上proto=tcp4这个参数就支持监听ipv4了

3、添加 Redis Server Group的时候,非codis-server(原生的redis)竟然也能加入到codis集群里面,在redis和codis-server共存在一个物理机上的清楚,很容易加错,希望能有个验证,非codis-server不能加入到codis集群

4、codis集群内部通讯是通过主机名的,如果主机名没有做域名解析那dashboard是通过主机名访问不到proxy的http-addr地址的,这会导致从web界面上看不到 OP/s的数据,至于还有没有其他问题,目前我这边还没有发现,建议内部通讯直接用内网IP

你可能感兴趣的:(NoSQL)