linux系统的集群包括:
我们在这介绍的Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。
bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。
直接给两块网卡设置同一IP地址是不可能的。Kernels 2.4.12及以后的版本均供bonding模块,以前的版本可以通过patch实现。
一、编辑虚拟网络接口配置文件,指定网卡IP
假设eth0是对外服务的网卡,已经调试好网络;eth1是希望与eth0同时对外提供服务的网卡。
写入如下信息和原来 ifcfg-eth0 的配置其实差不多。
所以我建议执行如下语句,将ifcfg-eth0复制一份再改。
将ifcfg-bon0的信息修改大致如下:
二、配置真实网卡
修改ifcfg-eth0如下:
类似地修ifcfg-eth1如下:
三、加载模块,让系统支持bonding
默认情况下,内核已支持bonding,只需要简单修改/etc/modprobe.conf 这个配置文档就可以了:添加两行
说明:
mode指定了bond0的工作模式,常用的是0和1,0表示负载均衡方式,1表示主从方式,可根据需要自行配置。常用的为0,1两种。mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份。bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用。 miimon是用来进行链路监测的。比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路。
四、增加开机启动脚本
在 /etc/rc.d/rc.local里加上
如果eth0和eth1都写了MASTER和SLAVE,则上面的步骤做不做都无所谓。
五、重启
reboot或者service network restart 都可以看到结果。
六、测试
ping着某个地址,当然是能ping通的地址啦。如果发现网络不通,请检查ifcfg-bond0的网络设置。
然后拔掉一根网线,如果ping没断,证明拔了一根backup的线,不是主线,重新插上等两分钟。
此时拔掉另一根网线,估计现在可以看到ping超时或者卡在那里,稍等10~30秒,ping继续连同。
测试成功。
1. 配置前的准备
服务器上已经有两块HBA卡,并连接在相同的磁盘上(一般每个HBA卡连接在不同的光纤交换机)。fdisk -l命令查看磁盘,将会发现有两个空间大小完全相同的磁盘。
通过scsi_id命令确认两个磁盘时同一个磁盘。
/sbin/scsi_id -g -u -s /block/sdc
/sbin/scsi_id -g -u -s /block/sdd
确认系统已安装multipath软件包:
rpm -q device-mapper-multipath
2. 磁盘多路径绑定配置
修改主配置文件/etc/multipath.conf
找到以下内容并将其注释掉:
#blacklist {
# devnode “*”
#}
这是设备的黑名单列表,系统中可能存在多个可进行绑定的磁盘设备,此列表可以对那些不要绑定的设备进行过滤,以避免使用中的吴操作。配置文件在默认情况下会过滤所有设备,因此系统不会为任何设备匹配绑定链接,注释后,multipath会为系统中除了本地磁盘以外的所有磁盘设备绑定链接。
启动多路径绑定
/etc/init.d/multipathd start
chkconfig multipathd on
multipath -ll
若此时系统发现了两组磁盘,有一个多路径绑定没有必要,再次修改主配置文件/etc/multipaht.conf,找到blacklist项解开注释,并修改为:
blacklist {
wwid 0QEMU_QEMU_HARDDISK_scsi0-hd1 (multipath -ll结果)
}
multipath -F 清空所有磁盘绑定设备
重启服务 service multipathd restart
再查看系统只发现一组磁盘
格式化、挂载多路径设备:
mkfs.ext3 /dev/md-2;mkdir /multipath;mount /dev/md-2 /multipath
需重启生效,在/etc/fstab文件中添加挂载项
/multipath.conf配置文件配置项-----defaults详解
该项用与定义多路径绑定的运行策略
defaults {
udev_dir dev #设备所在位置
polling_interval 10 #路径检查间隔
selector “round-robin 0” #路径间的轮询操作算法
path_qrouping_policy failover #路径冗余策略(默认:multibus)
getuid_callout “/sbin/scsi_id -g -u -s /block/%n” #判断相同设备的规则
prio_callout /bin/true #判断设备优先级的方式
path_checker readsector0 #路径状态的检查模式
rr_min_io 100 #I/O轮询的路径切换间隔
max_fds 8192 #允许同时打开的最大文件描述符
rr_weight priorities #轮询是否使用加权方式
failback immediate #发现路径失效时的操作方式
no_path_retry fail #路径失效重试
user_friendly_names yes #是否使用友好的设备名
}
·path_grouping_policy
multibus—在同一个绑定设备中,所有路径均拥有相同的优先级,因此读写操作通过多路径来实现负载均衡。一旦某一个路径失效,访问便会被分流到其他的可用路径。
failover—在同一个绑定设备中,只有一个路径拥有优先级,因此磁盘操作都使用同一个路径,一旦此路径失效,操作便会重定向到另一个可用设备。
默认值为multibus
建议:与网卡bonding中的默认选择类似,在磁盘I/O低于单个HBA卡的I/O处理能力,建议使用failover模式,这是因为multibus会消耗额外的CPU资源以进行计算。
·path_checker
readsector0—通过0扇区检查磁盘连路的可用状态,这是一个十分通用的模式。
directio—以直接I/O方式检查磁盘连路的可用状态。
除以上2中模式外,还有tur、emc_clariion、hp_sw模式,它们使用与不同的设备。
默认值为:readsector0
·rr_min_io
此值定义了在multibus模式中多个路径之间切换的密度,意思为每N次I/O操作后切换到下一个路径后再进行操作。此值过小会导致I/O路径的频繁切换;过大则会导致在大规模操作时切换延时,发挥不了应有的性能。只有当path_grouping_policy为multibus时才有效。
默认值为100
·max_fds
此参数只有在RHEL5.2及之后版本中有效
·user_friendly_names
设置为yes时系统会自动使用/dev/dm-x作为绑定的设备名;如果设为no,系统将会使用当前磁盘的wwid作为设备名。
3. 磁盘多路径绑定效果测试
通过在不同模式中、在多路径设备下建立1GB文件,并在建立过程中断开正在运行在路径来进行测试。
dd if=/dev/zero of=/multipath/1g.file bs=1M count=1024
监控在各个磁盘设备的设备号:
ll /dev/ | grep -E ‘sdc|sdd|dm-2’
sar -d 1 | grep -E ‘DEV | dev8-32|dev8-48|dev253-2’ | head -n 4