DRBD+Heartbeat+NFS实验笔记_第1张图片

环境:

Vmware6.5

Server1: eth0:192.168.1.201 sdb1 10G 心跳线: eth1: 10.10.10.131

Server2 eth0:192.168.1.202 sdb1 10G 心跳线:eth1:10.10.10.132

Heartbeat虚拟IP: 192.168.1.200

步骤:

一、 设置两台服务器的网卡信息、hosts、主机名等基本信息及sdb硬盘初始化。

此处我们只看看/etc/hots文件设置

clip_p_w_picpath003[5]

二、安装并设置drbd

1)安装drbd

#tar -zxvf drbd-8.3.10.tar.gz

#cd drbd-8.3.10

#./configure --prefix=/ --with-km

#make

#make install

#chkconfig --add drbd

#chkconfig drbd on

2)DRBD的配置文件位于/etc/drbd.conf

--------------------------------------------------------

[root@drbd1 ~]#cat /etc/drbd.conf

#

# drbd.conf

#

# create by [email protected] at 2010-08-12

global {

usage-count no;

}

common {

syncer { rate 200M; }

}

resource drbdtest {

protocol C;

handlers {

pri-on-incon-degr "echo o > /proc/sysrq-trigger ; halt -f";

pri-lost-after-sb "echo o > /proc/sysrq-trigger ; halt -f";

local-io-error "echo o > /proc/sysrq-trigger ; halt -f";

fence-peer "/usr/lib64/heartbeat/drbd-peer-outdater -t 5";

pri-lost "echo pri-lost. Have a look at the log files. | mail -s 'DRBD Alert' root";

split-brain "/usr/lib/drbd/notify-split-brain.sh root";

out-of-sync "/usr/lib/drbd/notify-out-of-sync.sh root";

}

net {

cram-hmac-alg "sha1";

shared-secret "mydrbdtest";

}

disk {

on-io-error detach;

fencing resource-only;

}

startup {

wfc-timeout 120;

degr-wfc-timeout 120;

}

device /dev/drbd0;

on server1{

disk /dev/sdb1;

address 192.168.1.201:7788;

meta-disk internal;

}

on server2 {

disk /dev/sdb1;

address 192.168.1.202:7788;

meta-disk internal; }

}

将上面这个drbd.conf文件分别复制到两台主机的/etc目录下。

----------------------------------------------------------------

3)创建drbd块设备

[root@server1 drbd-8.3.10]# drbdadm create-md drbdtest

Writing meta data...

initializing activity log

NOT initialized bitmap

New drbd meta data block successfully created.

在两台主机上执行同样的命令

4)启动drbd服务

#service drbd start 或 /etc/init.d/drbd start

此时drbd状态还是secondary/secondary,我们要把192.168.1.201设置为主服务器

[root@server1 ~]# drbdsetup /dev/drbd0 primary -o

再次查看drbd状态,

[root@server1 ~]# cat /proc/drbd

version: 8.3.10 (api:88/proto:86-96)

GIT-hash: 5c0b0469666682443d4785d90a2c603378f9017b build by root@server1, 2011-06-10 00:16:16

0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r-----

ns:1095660 nr:0 dw:0 dr:1103744 al:0 bm:66 lo:1 pe:6 ua:64 ap:0 ep:1 wo:b oos:9387112

[=>..................] sync'ed: 10.6% (9164/10236)M

finish: 0:07:51 speed: 19,884 (18,248) K/sec

看到已经同步,并开始传送数据,稍等一会再次查看磁盘状态都是”实时”,表示数据同步完成了。

二、 设置NFS及相关资源

启动portmap和nfs服务,并设置开机启动,

#service portmap start

#service nfs start

#chkconfig --level 345 portmap on

#chkconfig --level 345 nfs on

在server1上格式化drbd0设备,并挂载在/nfs目录

[root@server1 ~]# mkfs.ext3 /dev/drbd0

[root@server1 ~]# mkdir /nfs

现在可以把server1上的DRBD设备挂载到/nfs目录上进行使用。备机的DRBD设备无法被挂载,因为它是用来接收主机数据的,由DRBD负责操作。

[root@server1 ~]# mount /dev/drbd0 /nfs

在/etc/exports 上将/nfs目录共享出去,并reload

[root@server1 ~]exportfs –r

如果不使用heartbeat的情况下,DRBD只能手工切换主从关系

现在修改heartbeat的配置文件,使DRBD可以通过heartbeat自动切换

[root@server1 ~]# vi /etc/ha.d/haresources

Server1 192.168.1.201 drbddisk::drbdtest Filesystem::/dev/drbd0::/nfs::ext3 drbd portmap nfs

注释:上面那行

Server1 定义Server1为heartbeat的主机

192.168.1.201 定义对外服务的IP地址,这个IP自动在主从机之间切换

drbddisk::drbdtest 定义使用的drbd资源

Filesystem::/dev/drbd0::/nfs::ext3 定义挂载文件系统

drbd portmap nfs 定义其他需要切换的服务(用空格隔开)

三、 安装并配置heartbeat

1、 先创建heartbeat需要的用户

groupadd haclient

useradd hacluster -g haclient

2、安装heartbeat前,需要先安装libnet包。

tar zxvf heartbeat-2.1.3.tar.gz

rpm –ivh libnet-1.1.2.1-2.2.el5.rf.i386.rpm

cd heartbeat-2.0.7

./configure

make

make install

两台机器都要安装,操作一样。

3、查找下ha.cf等三个配置文件的位置,然后将他们拷贝到/usr/local/etc/ha.d/目录中

[root@server1 heartbeat-2.0.7]# find / -name ha.cf

/usr/local/share/doc/heartbeat-2.0.7/ha.cf

/root/heartbeat-2.0.7/doc/ha.cf

[root@server1 heartbeat-2.0.7]#cp /usr/local/share/doc/heartbeat-2.0.7/ha.cf /usr/local/etc/ha.d/ha.cf

[root@server1 heartbeat-2.0.7]# cp /usr/local/share/doc/heartbeat-2.0.7/haresources /usr/local/etc/ha.d/haresources

[root@server1 heartbeat-2.0.7]# cp /usr/local/share/doc/heartbeat-2.0.7/authkeys /usr/local/etc/ha.d/authkeys

4、修改配置文件如下:

1)ha.cf配置内容:

------------------------------------------------------------------------------------------------------------

logfile /var/log/ha-log

keepalive 2

deadtime 30

warntime 10

initdead 120

udpport 694

bcast eth1

ucast eth1 10.10.10.132 。

auto_failback on

node server1

node server2

ping_group group1 192.168.1.1 221.5.88.88

respawn hacluster /usr/lib/heartbeat/ipfail

apiauth ipfail gid=haclient uid=hacluster

------------------------------------------------------------------------------------------------------------------

2)haresources配置内容;

server1 192.168.1.200 drbddisk::drbdtest Filesystem::/dev/drbd0::/nfs::ext3 drbd portmap nfs

3)authkeys的配置内容:

auth 1

1 crc

#2 sha1 HI!

#3 md5 Hello!

Server1和server2的配置是一样的,除了在server2的ha.cf中将ucast的IP修改为10.10.10.131。

设置haresources文件的权限为600。

启动heartbeat ,却发现错误,原因在于我们的配置文件里的ipfail文件位置不对,我们可以寻找下。

[root@server2 ha.d]# cd /usr/lib/

[root@server2 ha.d]# find / -name ipfail

/usr/local/lib/heartbeat/ipfail

/root/heartbeat-2.0.7/contrib/ipfail

/root/heartbeat-2.0.7/contrib/ipfail/ipfail

/root/heartbeat-2.0.7/contrib/ipfail/.libs/ipfail

我们将ha.cf的配置内容修改为/usr/local/lib/heartbeat/ipfail

此时启动heartbeat服务,发现过了一会,我们的虚拟IP 就ping不通了,查看日志

发现时drbddisk的资源找不到,我们将drbddisk拷贝一份到/usr/local/etc/ha.d/resource.d,

[root@serrver2 ~]# cp /etc/ha.d/resource.d/drbddisk /usr/local/etc/ha.d/resource.d/drbddisk

分别在server1和server2上执行。

然后再次启动heartbeat,此时就没问题了。

确定heartbeat和DRBD开机自启动

确定需要由heartbeat切换的服务,开机不自启动(由heartbeat来启用相关的服务)

四、测试