centos-bonding

 一、什么是bonding


Linux bonding 驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余


二、bonding应用方向

1、网络负载均衡

对于bonding的网络负载均衡是我们在文件服务器中常用到的,比如把三块网卡,当做一块来用,解决一个IP地址,流量过大,服务器网络压力过大的问题。对于文件服务器来说,比如NFSSAMBA文件服务器,没有任何一个管理员会把内部网的文件服务器的IP地址弄很多个来解决网络负载的问题。如果在内网中,文件服务器为了管理和应用上的方便,大多是用同一个IP地址。对于一个百M的本地网络来说,文件服务器在多 个用户同时使用的情况下,网络压力是极大的,特别是SAMABANFS服务器。为了解决同一个IP地址,突破流量的限制,毕竟网线和网卡对数据的吞吐量是有限制的。如果在有限的资源的情况下,实现网络负载均衡,最好的办法就是 bonding 

2、网络冗余

对于服务器来说,网络设备的稳定也是比较重要的,特别是网卡。在生产型的系统中,网卡的可靠性就更为重要了。在生产型的系统中,大多通过硬件设备的冗余来提供服务器的可靠性和安全性,比如电源。bonding 也能为网卡提供冗余的支持。把多块网卡绑定到一个IP地址,当一块网卡发生物理性损坏的情况下,另一块网卡自动启用,并提供正常的服务,即:默认情况下只有一块网卡工作,其它网卡做备份


三、bonding实验环境及配置

1、实验环境

系统为:CentOS,使用2块网卡(eth0eth1  ==>  bond0)来实现bonding技术

2bonding配置

第一步:先查看一下内核是否已经支持bonding

1
)如果内核已经把bonding编译进内核,那么要做的就是加载该模块到当前内核;其次查看ifenslave该工具是否也已经编译
modprobe  -l   bond*
  或者 modinfo   bonding
modprobe   bonding
lsmod | grep 'bonding'
echo  'modprobe bonding &> /dev/null'  >>  /etc/rc.local
(开机自动加载bonding模块到内核)
which  ifenslave
注意:默认内核安装完后就已经支持bonding模块了,无需要自己手动编译

2
)如果bonding还没有编译进内核,那么要做的就是编译该模块到内核
1)编译bonding
tar -jxvf  kernel-XXX.tar.gz
cd  kernel-XXX
make  menuconfig
选择 " Network device support "  ->  " Bonding driver support "
make bzImage
make modules  &&  make modules_install
make install
2)编译ifenslave工具
gcc -Wall -O -I   kernel-XXX/include ifenslave.c -o ifenslave

第二步:主要有两种可选择(1种:实现网络负载均衡,第2种:实现网络冗余)

1:实现网络冗余(即:mod=1方式,使用eth0eth1

1编辑虚拟网络接口配置文件(bond0),并指定网卡IP
vi   /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
ONBOOT=yes
BOOTPROTO=static
IPADDR=192.168.0.254
BROADCAST=192.168.0.255
NETMASK=255.255.255.0
NETWORK=192.168.0.0
GATEWAY=192.168.0.1
USERCTL=no
TYPE=Ethernet
注意:建议不要指定MAC地址

vi   /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
BOOTPROTO=none
ONBOOT=yes
USERCTL=no
MASTER=bond0
SLAVE=yes
注意:建议不要指定MAC地址

vi   /etc/sysconfig/network-scripts/ifcfg-eth1
DEVICE=eth1
BOOTPROTO=none
ONBOOT=yes
USERCTL=no
MASTER=bond0
SLAVE=yes
注意:建议不要指定MAC地址

2编辑模块载入配置文件(/etc/modprobe.conf),开机自动加载bonding模块到内核
vi   /etc/modprobe.conf

alias  bond0  bonding  
options  bond0  miimon=100  mode=1

alias  net-pf-10  off   #关闭ipv6支持
说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0123456六种模式,常用为061三种,具体后面会介绍 
mode=0,表示load balancing (round-robin)为负载均衡方式,两块网卡都工作,但是与网卡相连的交换必须做特殊配置( 这两个端口应该采取聚合方式),因为做bonding的这两块网卡是使用同一个MAC地址
mode=6,表示load balancing (round-robin)为负载均衡方式,两块网卡都工作,但是该模式下无需配置交换机,因为做bonding的这两块网卡是使用不同的MAC地址
mode=1,表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份 
注意:bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用

4)重启并测试
第一:由于bonding使用的模式为mod=1(网络冗余),所以eth0eth1与虚拟的bond0同一个MAC地址


注意:对比上面这两个图,可知mode=1模式下,eth0eth1这两块网卡,只有一块网卡在工作(即:eth0),因为eth1网卡的RXTX都没有在发生变化

第二:测试,用ping指令ping虚拟网卡设备bond0IP地址(192.168.0.254),然后禁用eth0设备看一下能够继续ping的通

说明:如上图可得到,断开eth0(上图的右下角),还是可以ping的通的


2:实现网络负载均衡和网络冗余(即:mod=0方式,使用eth0eth1
注意:VM中只能做mode=1的实验,其它的工作模式得用真机来实践

跟例1的步骤一样,只需要修改模块载入配置文件(/etc/modprobe.conf),如下:

alias  bond0  bonding  
options  bond0  miimon=100 
 mode=0


1)测试如下
##
目前两块网卡都处于连接状态
root@Web:~# ifconfig | grep 'eth' | awk '{print $1}'
eth0
eth1

##
禁用了网卡eth0,用ping指令测试


反之,也是一样的!

3:实现网络负载均衡和网络冗余(即:mod=6方式,使用eth0eth1,其中eth0设置为primay

跟例1的步骤一样,只需要修改模块载入配置文件(/etc/modprobe.conf),如下:
alias  bond0  bonding 
 
options  bond0  miimon=100 
 mode=6


上图可知:mode=6时,eth0eth1所使用的MAC是不一样的

1)测试如下
##
目前两块网卡都处于连接状态
root@Web:~# ifconfig | grep 'eth' | awk '{print $1}'
eth0
eth1

##
禁用了网卡eth0,用ping指令测试

你可能感兴趣的:(centos,是)