前提:
1)本配置共有两个测试节点,分别node1.magedu.com和node2.magedu.com,相的IP地址分别为172.16.24.2和172.16.24.3
2)集群服务为nginx的web服务;
3)提供web服务的地址为172.16.24.100;
4)系统为rhel5.4
1、准备工作
为了配置一台Linux主机成为HA(高可用)的节点,通常需要做出如下的准备工作:
1)所有节点的主机名称和对应的IP地址解析服务可以正常工作,且每个节点的主机名称需要跟"uname -n“命令的结果保持一致
需要保证两个节点上的/etc/hosts文件均为下面的内容:
172.16.24.2
node1.magedu.com node1
172.16.24.3
node2.magedu.com node2
为了使得重新启动系统后仍能保持如上的主机名称,还分别需要在各节点执行类似如下的命令,也可以直接修改/etc/sysconfig/network 文件:
Node1:
# sed -i 's@\(HOSTNAME=\).*@\1node1.magedu.com@g' /etc/sysconfig/network
# hostname node1.magedu.com
Node2:
# sed -i 's@\(HOSTNAME=\).*@\1node2.magedu.com@g' /etc/sysconfig/network
# hostname node2.magedu.com
2)设定两个节点可以基于密钥进行ssh通信,这可以通过类似如下的命令实现:
Node1:
# ssh-keygen -t rsa
Node2:
# ssh-keygen -t rsa
3)验证双机互信是否成功,在node1上测试:
#ssh node2 'ifconfig ' --出现如下图所示信息,则双机互信成功:
2、安装配置过程:
1、安装如下软件包:
libibverbs, librdmacm, lm_sensors, libtool-ltdl, openhpi-libs, openhpi, perl-TimeDate
2、安装corosync和pacemaker,首先下载所需要如下软件包至本地某专用目录(可以保存至/root/cluster目录下):
cluster-glue
cluster-glue-libs
heartbeat
openaislib
resource-agents
corosync
heartbeat-libs
pacemaker
corosynclib
libesmtp
pacemaker-libs
下载地址:http://clusterlabs.org/rpm/。请根据硬件平台及操作系统类型选择对应的软件包;这里建议每个软件包都使用目前最新的版本。
使用如下命令安装:事先要配置好yum源。
# cd /root/cluster
# yum -y --nogpgcheck localinstall *.rpm
3、配置corosync:以下命令在node1.magedu.com上执行
# cd /etc/corosync
# cp corosync.conf.example corosync.conf
接着编辑corosync.conf,添加如下内容:
totem {
version: 2
secauth: on --是否做安全认证的,如果要做安全认证可以修改为secauth:on
threads: 0 --启用的线程数,一般和CPU数保持一致
interface {
ringnumber: 0
bindnetaddr: 172.16.0.0 --网络地址,和网卡保持一致,这里也可以直接写成提供web服务的地址为172.16.24.100
mcastaddr: 226.94.1.1 --广播地址
mcastport: 5405
}
}
.
.
.
service {
ver: 0
name: pacemaker
use_mgmtd: yes
}
aisexec {
user:
root
group: root
}
并设定此配置文件中 bindnetaddr后面的IP地址为你的网卡所在网络的网络地址,我们这里的两个节点在72.16.0.0网络,因此这里将其设定为172.16.0.0;如下
bindnetaddr: 172.16.0.0
生成节点间通信时用到的认证密钥文件:
# corosync-keygen
将corosync.conf和authkey复制至node2:
# scp -p corosync.conf authkey node2:/etc/corosync/
分别为两个节点创建corosync生成的日志所在的目录:
# mkdir /var/log/cluster
# ssh node2 'mkdir /var/log/cluster'
4、尝试启动,(以下命令在node1上执行):
#service corosync start --成功启动,会出现如所示信息:
[root@node1 ~]#service corosync start
Starting Corosync Cluster Engine (corosync): [ OK ]
查看corosync引擎是否正常启动:
# grep -e "Corosync Cluster Engine" -e "configuration file" /var/log/cluster/corosync.log --如下图所示:
查看初始化成员节点通知是否正常发出:
# grep TOTEM /var/log/cluster/corosync.log --如下图所示:
检查启动过程中是否有错误产生:
# grep ERROR: /var/log/cluster/corosync.log | grep -v unpack_resources
查看pacemaker是否正常启动:
# grep pcmk_startup /var/log/cluster/corosync.log --如图所示:
如果上面命令执行均没有问题,接着可以执行如下命令启动node2上的corosync
# ssh node2 'service corosync start'
注意:启动node2需要在node1上使用如上命令进行,不要在node2节点上直接启动;
使用如下命令查看集群节点的启动状态:
# crm status --如果正常启动,会出现如下图所示信息:
从上面的信息可以看出两个节点都已经正常启动,并且集群已经牌正常工作状态。
5、配置集群的工作属性,禁用stonith
corosync默认启用了stonith,而当前集群并没有相应的stonith设备,因此此默认配置目前尚不可用,这可以通过如下命令验正:
# crm_verify -L
crm_verify[5202]: 2012/04/16_18:10:38 ERROR: unpack_resources: Resource start-up disabled since no STONITH resources have been defined
crm_verify[5202]: 2012/04/16_18:10:38 ERROR: unpack_resources: Either configure some or disable STONITH with the stonith-enabled option
crm_verify[5202]: 2012/04/16_18:10:38 ERROR: unpack_resources: NOTE: Clusters with shared data need STONITH to ensure data integrity
Errors found during check: config not valid
-V may provide more details
我们里可以通过如下命令先禁用stonith:
# crm configure property stonith-enabled=false
使用如下命令查看当前的配置信息:
# crm configure show
node node1.magedu.com
node node2.magedu.com
property $id="cib-bootstrap-options" \
dc-version="1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87" \
cluster-infrastructure="openais" \
expected-quorum-votes="2" \
stonith-enabled="false
从中可以看出stonith已经被禁用。
上面的crm,crm_verify命令是1.0后的版本的pacemaker提供的基于命令行的集群管理工具;可以在集群中的任何一个节点上执行。
6、为集群添加集群资源
corosync支持heartbeat,LSB和ocf等类型的资源代理,目前较为常用的类型为LSB和OCF两类,stonith类专为配置stonith设备而用;
可以通过如下命令查看当前集群系统所支持的类型:
# crm ra classes
heartbeat
lsb
ocf / heartbeat pacemaker
stonith
如果想要查看某种类别下的所用资源代理的列表,可以使用类似如下命令实现:
# crm ra list lsb
# crm ra list ocf pacemaker
也可以切换到交互式模式下查看:
#crm
crm(live)# ra
crm(live)ra# list ocf heartbeat
# crm ra list stonith
查看资源代理中的元数据信息格式:
crm ra info [class:[provider:]]resource_agent
例如:
# crm ra info ocf:heartbeat:IPaddr
7、接下来要创建的web集群创建一个IP地址资源,以在通过集群提供web服务时使用;
这可以通过如下方式实现:
语法:
primitive <rsc> [<class>:[<provider>:]]<type>
[params attr_list]
[operations id_spec]
[op op_type [<attribute>=<value>...] ...]
op_type :: start | stop | monitor
例子:
primitive apcfence stonith:apcsmart \
params ttydev=/dev/ttyS0 hostlist="node1 node2" \
op start timeout=60s \
op monitor interval=30m timeout=60s
应用:
# crm configure primitive WebIP ocf:heartbeat:IPaddr params ip=172.16.24.100
通过如下的命令执行结果可以看出此资源已经在node1.magedu.com上启动:
# crm status --显示信息如下:
当然,也可以在node1上执行ifconfig命令看到此地址已经在eth0的别名上生效:
# ifconfig
eth0:0 Link encap:Ethernet HWaddr 00:0C:29:AA:DD:CF
inet addr:172.16.24.100 Bcast:192.168.0.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
Interrupt:67 Base address:0x2000
而后我们到node2上通过如下命令停止node1上的corosync服务:
# ssh node1 ‘service corosync stop’
查看集群工作状态:
# crm status --如下图所示:
上面的信息显示node1.magedu.com已经离线,但资源WebIP却没能在node2.magedu.com上启动。这是因为此时的集群状态为"WITHOUT quorum",即已经失去了quorum,此时集群服务本身已经不满足正常运行的条件,这对于只有两节点的集群来讲是不合理的。因此,我们可以通过如下的命令来修改忽略quorum不能满足的集群状态检查:
# crm configure property no-quorum-policy=ignore
片刻之后,集群就会在目前仍在运行中的节点node2上启动此资源了,如下所示:
# crm status
好了,验正完成后,我们正常启动node1.magedu.com:
# ssh node1 ‘service corosync start’
资源又回到了node1上
正常启动node1.magedu.com后,集群资源WebIP很可能会重新从node2.magedu.com转移回 node1.magedu.com。资源的这种在节点间每一次的来回流动都会造成那段时间内其无法正常被访问,所以,我们有时候需要在资源因为节点故障转移到其它节点后,即便原来的节点恢复正常也禁止资源再次流转回来。这可以通过定义资源的黏性(stickiness)来实现。在创建资源时或在创建资源后,都可以指定指定资源黏性。
资源黏性值范围及其作用:
0:这是默认选项。资源放置在系统中的最适合位置。这意味着当负载能力“较好”或较差的节点变得可用时才转移资源。此选项的作用基本等同于自动故障回复,只是资源可能会转移到非之前活动的节点上;
大于0:资源更愿意留在当前位置,但是如果有更合适的节点可用时会移动。值越高表示资源越愿意留在当前位置;
小于0:资源更愿意移离当前位置。绝对值越高表示资源越愿意离开当前位置;
INFINITY:如果不是因节点不适合运行资源(节点关机、节点待机、达到migration-threshold 或配置更改)而强制资源转移,资源总是留在当前位置。此选项的作用几乎等同于完全禁用自动故障回复;
-INFINITY:资源总是移离当前位置;
我们这里可以通过以下方式为资源指定默认黏性值:
在node2节点上配置node2的黏性值:
# crm configure rsc_defaults resource-stickiness=100
然后停掉node1的corosync服务
#crm node standby
#crm status --此时资源已经流入到node2节点上,
#crm node online --重新让node1上线,查看资源是否再流入到node1上,如下图所示:
很明显,资源仍然在node2上,因为我们为node2定义了黏性值,此时资源更愿意留在node2上面。
当然,如果停掉node2节点上的corosync服务,资源会流回到node1节点上。而且如果此时再让node2节点的corosync服务上线,资源仍然不会再流回到node2节点上,因为node1和node2节点上的黏性值是相同的,都为100,资源就留在node1上了。
8、结合上面已经配置好的IP地址资源,将此集群配置成为一个active/passive模型的web(nginx)服务集群
为了将此集群启用为web(nginx)服务器集群,我们得先在各节点上安装nginx,并配置其能在本地各自提供一个测试页面,此处在node1和node2上提前编译安装的nginx,并支持php脚本。
Node1:
# echo "<h1>node1.magedu.com</h1>" > /usr/html/index.php
Node2:
# echo "<h1>node2.magedu.com</h1>" > /usr/html/index.php
而后在各节点手动启动nginx服务,并确认其可以正常提供服务。接着使用下面的命令停止nginx服务,并确保其不会自动启动(在两个节点各执行一遍):
# service nginx stop
# chkconfig nginx off
#chkconfig --list nginx --确保2,3,4,5,处于off状态
接下来我们将此nginx服务添加为集群资源。将nginx添加为集群资源有两处资源代理可用lsb和ocf:heartbeat,为了简单起见,我们这里使用lsb类型:
首先可以使用如下命令查看lsb类型的nginx资源的语法格式:
# crm ra info lsb:nginx
lsb:nginx
Nginx is an HTTP(S) server, HTTP(S) reverse \
proxy and IMAP/POP3 proxy server
Operations' defaults (advisory minimum):
start timeout=15
stop timeout=15
status timeout=15
restart timeout=15
force-reload timeout=15
monitor interval=15 timeout=15 start-delay=15
接下来新建资源WebSite:
# crm configure primitive WebSite lsb:nginx
查看配置文件中生成的定义:
node node1.magedu.com
node node2.magedu.com
primitive WebIP ocf:heartbeat:IPaddr \
params ip="172.16.24.100"
primitive WebSite lsb:nginx
property $id="cib-bootstrap-options" \
dc-version="1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87" \
cluster-infrastructure="openais" \
expected-quorum-votes="2" \
stonith-enabled="false" \
no-quorum-policy="ignore"
查看资源的启用状态:
# crm status
============
Last updated: Mon Apr 16 18:40:32 2012
Stack: openais
Current DC: node2.magedu.com - partition with quorum
Version: 1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87
2 Nodes configured, 2 expected votes
2 Resources configured.
============
Online: [ node1.magedu.com node2.magedu.com ]
WebIP
(ocf::heartbeat:IPaddr):
Started node1.magedu.com
WebSite
(lsb:nginx):
Started node2.magedu.com
从上面的信息中可以看出WebIP和WebSite有可能会分别运行于两个节点上,这对于通过此IP提供Web服务的应用来说是不成立的,即此两者资源必须同时运行在某节点上。由此可见,即便集群拥有所有必需资源,但它可能还无法进行正确处理。资源约束则用以指定在哪些群集节点上运行资源,以何种顺序装载资源,以及特定资源依赖于哪些其它资源。pacemaker共给我们提供了三种资源约束方法:
1)Resource Location(资源位置):定义资源可以、不可以或尽可能在哪些节点上运行;
2)Resource Collocation(资源排列):排列约束用以定义集群资源可以或不可以在某个节点上同时运行;
3)Resource Order(资源顺序):顺序约束定义集群资源在节点上启动的顺序;
定义约束时,还需要指定分数。各种分数是集群工作方式的重要组成部分。其实,从迁移资源到决定在已降级集群中停止哪些资源的整个过程是通过以某种方式修改分数来实现的。分数按每个资源来计算,资源分数为负的任何节点都无法运行该资源。在计算出资源分数后,集群选择分数最高的节点。 INFINITY(无穷大)目前定义为 1,000,000。加减无穷大遵循以下3个基本规则:
1)任何值 + 无穷大 = 无穷大
2)任何值 - 无穷大 = -无穷大
3)无穷大 - 无穷大 = -无穷大
定义资源约束时,也可以指定每个约束的分数。分数表示指派给此资源约束的值。分数较高的约束先应用,分数较低的约束后应用。通过使用不同的分数为既定资源创建更多位置约束,可以指定资源要故障转移至的目标节点的顺序。
因此,对于前述的WebIP和WebSite可能会运行于不同节点的问题,可以通过以下命令来解决:
# crm configure colocation website-with-ip INFINITY: WebSite WebIP
接着,我们还得确保WebSite在某节点启动之前得先启动WebIP,这可以使用如下命令实现:
# crm configure order nginx-after-ip mandatory: WebIP WebSite
此外,由于HA集群本身并不强制每个节点的性能相同或相近,所以,某些时候我们可能希望在正常时服务总能在某个性能较强的节点上运行,这可以通过位置约束来实现:
# crm configure location WebSite-on-node1 WebSite 200: node1.magedu.com --表示将node1.magedu.com服务器上的WebSite资源的位置约束分数定义为200
# crm configure location WebIP-on-node1 WebIP 200: node1.magedu.com
注意:由于前面的操作我们将WebIP和WebSite这两个资源定义成了排列约束,让其必须同时处于一个服务节点上,所以再定义位置约束的时候一定要将这两个资源都定义成位置约束,否则会出错!!!而且分数后面跟的hostname必须是全名,如:node1.magedu.com
我们可以在浏览器中查看nginx的运行状况,和网页信息:当node1上线的时候,网页信息如下图:
当node2节点上线的时候,网页信息如下图:
知识补充:
多播地址(multicast address)即组播地址,是一组主机的标示符,它已经加入到一个多播组中。在以太网中,多播地址是一个48位的标示符,命名了一组应该在这个网络中应用接收到一个分组的站点。在IPv4中,它历史上被叫做D类地址,一种类型的IP地址,它的范围从224.0.0.0到239.255.255.255。在IPv6,多播地址都有前缀ff00::/8。
多播是第一个字节的最低位为1的所有地址,例如01-12-0f-00-00-02。广播地址是全1的48位地址,也属于多播地址。但是广播又是多播中的特例,就像是正方形属于长方形,但是正方形有长方形没有的特点。