双网卡绑定实现负载均衡

Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。

绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片 



1.创建虚拟网卡
编辑虚拟网络接口配置文件,指定网卡IP  
vi /etc/sysconfig/ network-scripts/ ifcfg-bond0  
[root@rhas5 root]# cp  /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0 
2.编辑虚拟网卡和物理网卡
#vi ifcfg-bond0  
将第一行改成 DEVICE=bond0  
# cat ifcfg-bond0 
DEVICE=bond0 
BOOTPROTO=static 
IPADDR=172.31.0.13 
NETMASK=255.255.252.0 
BROADCAST=172.31.3.254 
ONBOOT=yes
USERCTL=no 
TYPE=Ethernet 
这里要注意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。 

编辑物理网卡eth0,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth0  
DEVICE=eth0 
ONBOOT=yes
BOOTPROTO=static  
SLAVE=yes
MASTER=bond0
编辑物理网卡eth0,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth1  
DEVICE=eth0 
ONBOOT=yes 
BOOTPROTO=static 
SLAVE=yes
MASTER=bond0


3.# vi /etc/modules.conf (linux其他版本用这个) 
编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0  
  
加入下列两行  
alias bond0 bonding  
options bond0 miimon=100 mode=1 primary=eth0 
说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。 
   mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 
   mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.   
bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用 

4.# vi /etc/modprobe.conf  
编辑 /etc/modprobe.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0  
  
加入下列两行  
alias bond0 bonding  
options bond0 miimon=100 mode=1  use_carrier=0  

缺省地,bonding会启用use_carrier选项,这将使得bonding信任设备来维护载波状态。

当启用use_carrier,bonding将会永远认为链路是正常的,而不管它们的实际状态。

  而且,某些驱动虽然支持netif_carrier,但并不实时维护它,比如只是以某个固定的间隔轮训。在这种情况下,miimon会检测到链路异常,但是可能在某个很长的时间间隔后,如果发现miimon很慢才能检测到链路异常,尝试着设置use_carrier=0,看看能不能改善。如果可以改善,则很可能是驱动需要一个很长的固定间隔才会检查载波状态,而且没有缓存MII寄存器的值(因此当use_carrier=0时查询寄存器可以正常工作);如果use_carrier=0不能解决问题,则可能是驱动缓存了MII寄存器的值,或者是其它的问题。


为保证能够其他版本可用,我们两个都编辑,不影响使用。


1.创建虚拟网卡
编辑虚拟网络接口配置文件,指定网卡IP  
vi /etc/sysconfig/ network-scripts/ ifcfg-bond0  
[root@rhas5 root]# cp  /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0 
2.编辑虚拟网卡和物理网卡
#vi ifcfg-bond0  
将第一行改成 DEVICE=bond0  
# cat ifcfg-bond0 
DEVICE=bond0 
BOOTPROTO=static 
IPADDR=133.96.5.76 
NETMASK=255.255.252.224
GATEWAY=133.96.5.67
BROADCAST=133.96.5.95 
ONBOOT=yes
USERCTL=no 
TYPE=Ethernet 
这里要注意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。 

编辑物理网卡eth0,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth0  
DEVICE=eth0 
ONBOOT=yes
BOOTPROTO=static  
SLAVE=yes
MASTER=bond0
USERCTL=no 

编辑物理网卡eth1,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth1  
DEVICE=eth0 
ONBOOT=yes 
BOOTPROTO=static 
SLAVE=yes
MASTER=bond0
USERCTL=no 

3.# vi /etc/modules.conf (linux其他版本用这个) 
编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0  
  
加入下列两行  
alias bond0 bonding  
options bond0 miimon=100 mode=1 primary=eth0 
说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。 
   mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 
   mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.   
bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用 

4.# vi /etc/modprobe.conf  
编辑 /etc/modprobe.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0  
  
加入下列两行  
alias bond0 bonding  
options bond0 miimon=100 mode=1  use_carrier=0  

缺省地,bonding会启用use_carrier选项,这将使得bonding信任设备来维护载波状态。

当启用use_carrier,bonding将会永远认为链路是正常的,而不管它们的实际状态。

  而且,某些驱动虽然支持netif_carrier,但并不实时维护它,比如只是以某个固定的间隔轮训。在这种情况下,miimon会检测到链路异常,但是可能在某个很长的时间间隔后,如果发现miimon很慢才能检测到链路异常,尝试着设置use_carrier=0,看看能不能改善。如果可以改善,则很可能是驱动需要一个很长的固定间隔才会检查载波状态,而且没有缓存MII寄存器的值(因此当use_carrier=0时查询寄存器可以正常工作);如果use_carrier=0不能解决问题,则可能是驱动缓存了MII寄存器的值,或者是其它的问题。


为保证能够其他版本可用,我们两个都编辑,不影响使用。

重新启动机器 如果成功在终端命令行下输入: ifconfig -a |more ,查看如果bond0和eth0、eth1的mac地址相同,那么我们设置成功否则十有八九是失败的。
还有要注意一定要手工敲打,如果批量修改注意权限,如是批量替换要记得删除原文件重新启动后再替换。否则系统会使用swap分区缓存的文件。

你可能感兴趣的:(设计模式,linux,虚拟机,网络应用,Cisco)