Distributed Replicated Block Device(DRBD)是一个用软件实现的、无共享的、服务器之间镜像块设备内容的存储复制解决方案。数据镜像:实时、透明、同步(所有服务器都成功后返回)、异步(本地服务器成功后返回)
DBRD的核心功能通过Linux的内核实现,最接近系统的IO栈,但它不能神奇地添加上层的功能比如检测到EXT3文件系统的崩溃。
DBRD的位置处于文件系统以下,比文件系统更加靠近操作系统内核及IO栈。
------《百度百科》
实验环境:
主 192.168.43.128 drbd-M CentOS 5.4 64bit
从 192.168.43.129 drbd-S CentOS5.4 64bit
准备工作:
Vim /etc/hosts
192.168.43.129 drbd-M
192.168.43.130 drbd-S
修改hostname名,
主:hostname drbd-M
从:hostname drbd-S
确保与uname -n输出一致。PS:很重要,后面的drbd和heartbeat都要依赖于主机名来通信。
搭建环境,采用yum安装:
- # yum install -y drbd83 kmod-drbd83
- # yum search heartbeat*
- heartbeat所需的安装包主要有以下几个:
- heartbeat-devel-2.1.3-3.el5.centos
- heartbeat-stonith-2.1.3-3.el5.centos
- heartbeat-gui-2.1.3-3.el5.centos
- heartbeat-ldirectord-2.1.3-3.el5.centos
- heartbeat-pils-2.1.3-3.el5.centos
- heartbeat-2.1.3-3.el5.centos
一 DRBD的安装使用
加载安装drbd模块:
- # modprobe drbd
检查是否加载成功:
- # modprobe drbd
- drbd 277272 2
PS:一般使用yum安装的话系统会自动加载的,此步可以跳过,如果使用源码包编译就一定要记得这一步。
添加一块硬盘,存放数据,主从服务器的硬盘大小可以不一致,但是如果数据超过小的硬盘,后果自己考虑吧!这里添加的是一块2G的硬盘,设备名称为/dev/sdb2,注意先别急着格式化。
开始drbd的配置:
drbd主配置文件,很重要:
- global {
- }
- common {
- syncer { rate 100M; } //设置两个节点间的同步速率;
- }
- resource db {
- protocol C; //定义当数据被写入块设备时候的一致性级别(数据同步协议),A、B、C三个级别,C为数据被确认写到本地磁盘和远程磁盘后返回,确认成功
- startup { wfc-timeout 0; degr-wfc-timeout 120; }
- disk { on-io-error detach; }
- syncer { rate 100M; }
- on drbd-M { //节点名称一定要与hostname保持一致;
- device /dev/drbd0; //创建的虚拟磁盘
- disk /dev/sdb2; //物理分区
- address 192.168.43.129:7788; //监听端口
- meta-disk internal; //局域网类型
- }
- on drbd-S {
- device /dev/drbd0;
- disk /dev/sdb2;
- address 192.168.43.130:7788;
- meta-disk internal;
- }
- }
检测配置文件:
- #drbdadm ajust db
至此drbd已经配置完毕,以上步骤在主从服务器上都要做,而且drbd的配置文件要保持一致。
主服务器和从服务器上创建matadata:
- # drbdadm create-md all
主从服务器启动drbd:
- # /etc/init.d/drbd start
此时主从服务器之间开始同步数据,第一次的话时间会稍微长一些。
将drbd-M 设为主节点
第一次的话要使用:
- # drbdsetup /dev/drbd0 primary -o
以后可以使用drbdadm primary all命令。
将新创建的设备格式化并且挂载:
- # mkfs.ext3 /dev/drbd0 //破坏文件系统:dd if=/dev/zero bs=1M of=/dev/sdb2;sync
- # mount /dev/drbd0 /data/
- # df –H
在/data目录下创建文件进行测试:
- # cd /data/
- # mkdir linna
- # touch database
- # ls
- database linna lost+found
下面进行测试:
drbd-M:
将主服务器降为从:
先卸载设备:
- # umount /data/
- # drbdadm secondary all
PS:临时切断节点之间的连接可以使用:#drbdadm connect all
查看系统日志/var/log/message:
Drbd-S:
我们再将从服务器提升为主服务器看下数据能否同步过来:
- # drbdadm primary all
- # mount /dev/drbd0 /data
- # cd /data/
看,数据已经同步过来了!
我们可以通过查看/proc/drbd来监控主从节点间之间数据同步的过程:
- #Watch -n 10 ‘cat /proc/drbd’
二 MySQL+Heartbeat+DRBD构建高可用环境
图 MySQL+Heartbeat+DRBD构建高可用MySQL
1 Heartbeat主配置文件/etc/ha.d/ha.cf:
- # cat /etc/ha.d/ha.cf
- logfacility local0 //定义日志,使用syslog;
- keepalive 2 //定义心跳频率;
- deadtime 15 //如果其他节点15S内没有回应,则确认其死 亡;
- warntime 5 //确认一个节点连接不上5S之后将警告信息写入日志;
- initdead 120 //在其他节点死掉之后,系统启动前需要等待的时间,一般为deadtime的两倍;
- udpport 694 // 用来通信的端口;
- bcast eth0 // 在eth0上进行心跳测试
- watchdog /dev/watchdog //可选项
- auto_failback off // 设置当死亡节点恢复正常之后是否重新启用;容易发生数据不一致的情况,必须项,不然后面hb_standby命令无法使用;
- node drbd-M
- node drbd-S
- respawn hacluster /usr/lib64/heartbeat/ipfail
2 设置两个节点之间的通信密钥:
- #cat authkeys
- auth 3
- 3 md5 Hello!
3 定义资源:
- # cat haresources
- drbd-M drbddisk Filesystem::/dev/drbd0::/data::ext3 mysqld 192.168.43.20
drbd-M //主节点;
drbddisk Filesystem::/dev/drbd0::/data::ext3 mysqld //定义Heartbeat需要管理的资源,并且每一部分在/etc/ha.d/haresources.d下有对应的脚本;如果主节点失效,备节点将通过执行这些脚本来启用资源;如果脚本有参数可以使用“::”来进行分割;
drbddisk 管理drbd资源的脚本;
filesystem 管理文件系统资源的脚本,后面参数定义drbd设备,挂载点,文件系统类型
mysqld 管理mysql的脚本,需要从/etc/init.d/mysqld 拷贝
192.168.43.20 //VIP,用来连接MySQL的IP,当Heartbeat启用之后会自动分配;
图 Resource.d 下的内容
在主从节点上启动Heartbeat
- # /etc/init.d/heartbeat start
查看下资源启动情况:
先看下主节点drbd-M的日志:
再看下drbd-S的日志,已经处在监听等待状态:
虚拟IP已经启动:
Drbd和MySQL的端口已经在监听:
主节点/data目录下:
我们切换到drbd-S来试一下,看资源能不能切换过来:
使用/usr/lib64/heartbeat/hb_standby命令可以来模拟主节点死掉的情况。
- 2011/07/18_20:49:53 Going standby [all].
从服务器drbd-S日志:
再看下资源是否已经抢占过来:
/data目录下的文件:
PS:Heartbeat启动之前必须保证drbd服务已经启动,并且主服务器已经设置为primary并成功挂载/dev/drbd0.不然主服务器Heartbeat在启动的时候会提示找不到/dev/drbd0设备,并造成其他的资源也无法启动的情况。
PS:心跳探测和数据复制不建议在同一个网卡上进行,本实验只是为了方便采取了这样的方式。
dopd进程:当主从节点之间的失去连接,那么主从节点之间的数据就无法同步,就会发生从节点的数据过期的情况(数据不一致的情况)。如果此时主服务器发生宕机的情况,那么dopd进程会阻止从服务器提升为主服务器。具体实现:
1 修改/etc/ha.d/ha.cf 文件:
- respawn hacluster /usr/lib64/heartbeat/dopd
- apiauth dopd gid=haclient uid=hacluster
2 修改/etc/drbd.conf 文件:
- common {
- handlers {
- outdate-peer “/usr/lib64/heartbeat/drbd-peer-outdater”;
- }
- }
- resource db {
- disk {
- Fencing resource-only;
- }
- }
3 重新加载配置文件:
- # /etc/init.d/heartbeat reload
- #/drbdadm adjust all
MySQL+Heartbeat+DRBD方案可以单独使用,也可以在构建MySQL主从架构时实现主服务器的高可用,在此不再详细实现,有兴趣的朋友可以尝试一下(完)!
参考文章:MySQL and DRBD Guide