双网卡绑定这个技术已经很老了,google一搜也一大堆,今天自己也小记一下
Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP 地址而并行链接聚合成一个逻辑链路工作。其实这项 技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称 为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。
下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接 收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的 Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。
Centos 6.0
1、修改网卡配置
首先是bond0
写道
cd /etc/sysconfig/network-scripts
vim ifcfg-bond0
DEVICE="bond0"
BOOTPROTO=static
BROADCAST="192.168.4.255"
DNS1="218.108.248.200"
GATEWAY="192.168.4.1"
IPADDR="192.168.4.130"
NETMASK="255.255.255.0"
ONBOOT="yes"
TYPE=Ethernet
接下来是eth0、eth1
写道
vim ifcfg-eth0
DEVICE="eth0"
BOOTPROTO=none
ONBOOT="yes"
TYPE=Ethernet
MASTER=bond0
SLAVE=yes
vim ifcfg-eth1
DEVICE="eth1"
BOOTPROTO=none
ONBOOT="yes"
TYPE=Ethernet
MASTER=bond0
SLAVE=yes
2、加载模块
写道
vim /etc/modprobe.d/dist.conf
alias bond0 bonding
options bond0 miimon=100 mode=0
对于这些参数解释,网上也是一大堆
写道
miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3,4,5,6四种模式,常用的为0,1两种。
mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。
mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.
bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用
这7种工作方式如下:
=0: (balance-rr) Round-robin policy: (平衡抡循环策略):传输数据包顺序是依次传输,直到最后一个传输完毕, 此模式提供负载平衡和容错能力。
=1: (active-backup) Active-backup policy:(主-备份策略):只有一个设备处于活动状态。 一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得。 此模式提供了容错能力。
=2:(balance-xor) XOR policy:(广播策略):将所有数据包传输给所有接口。 此模式提供了容错能力。
=3:(balance-xor) XOR policy:(平衡策略): 传输根据原地址布尔值选择传输设备。 此模式提供负载平衡和容错能力。
=4:(802.3ad) IEEE 802.3ad Dynamic link aggregation.IEEE 802.3ad 动态链接聚合:创建共享相同的速度和双工设置的聚合组。
=5:(balance-tlb) Adaptive transmit load balancing(适配器传输负载均衡):没有特殊策略,第一个设备传不通就用另一个设备接管第一个设备正在处理的mac地址,帮助上一个传。
=6:(balance-alb) Adaptive load balancing:(适配器传输负载均衡):大致意思是包括mode5,bonding驱动程序截获 ARP 在本地系统发送出的请求,用其中之一的硬件地址覆盖从属设备的原地址。就像是在服务器上不同的人使用不同的硬件地址一样。
3、重启网卡
写道
/etc/init.d/network restart
重启的时候,可以看到网卡是否成功启动,启动成功之后就是双网卡绑定状态了
至于网上大部分说的ifenslave bond0 eth0 eth1,这只是一条启用命令而已,像上述配置好了的话,这条命令根本不用执行了,也不用去开机执行,因为开机就会加载网卡配置文件了
若要查看绑定的网卡状态
写道
cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.5.0 (November 4, 2008)
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth0
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b1:fc
Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b1:fd
ifenslave是centos默认就安装了,它的一些使用方法可以man看看
经过测试,双网卡绑定之后,带宽果然有增加至少50%
Ubuntu 10.04 server
没安装的话,执行
写道
apt-get install ifenslave-2.6
1、修改网卡配置
Ubuntu的稍微简单一些
写道
vim /etc/network/interfaces
auto lo
iface lo inet loopback
auto bond0
iface bond0 inet static
address 192.168.4.132
netmask 255.255.255.0
gateway 192.168.4.1
post-up ifenslave bond0 eth0 eth1
pre-down ifenslave -d bond0 eth0 eth1
2、加载模块
首先执行
写道
modprobe bonding
这样就不用重启设备了
当然,配置文件也同样需要添加
写道
vim /etc/modules
bonding mode=0 miimon=100
3、重启网卡
执行
写道
/etc/init.d/networking restart
完成以后,同样可以查看一下bonding的状态
写道
root@132:/etc/network# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth0
MII Status: up
Speed: 100 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b2:a2
Slave queue ID: 0
Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b2:a3
Slave queue ID: 0
参考来源:http://bbs.chinaunix.net/thread-2242919-1-1.html
http://singlegod.blog.51cto.com/1909710/565367
http://m114.org/system/linux/ubuntu-bonding.html
如果想改变bonding的工作模式的话,估计需要重启服务器,光重启网卡好像是不行的