Centos or Ubuntu 双网卡绑定

双网卡绑定这个技术已经很老了,google一搜也一大堆,今天自己也小记一下

 

 

Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP 地址而并行链接聚合成一个逻辑链路工作。其实这项 技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称 为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。

 

下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接 收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的 Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。

 

Centos 6.0

1、修改网卡配置

首先是bond0

写道
cd /etc/sysconfig/network-scripts
vim ifcfg-bond0

DEVICE="bond0"
BOOTPROTO=static
BROADCAST="192.168.4.255"
DNS1="218.108.248.200"
GATEWAY="192.168.4.1"
IPADDR="192.168.4.130"
NETMASK="255.255.255.0"
ONBOOT="yes"
TYPE=Ethernet

 接下来是eth0、eth1

写道
vim ifcfg-eth0

DEVICE="eth0"
BOOTPROTO=none
ONBOOT="yes"
TYPE=Ethernet
MASTER=bond0
SLAVE=yes


vim ifcfg-eth1

DEVICE="eth1"
BOOTPROTO=none
ONBOOT="yes"
TYPE=Ethernet
MASTER=bond0
SLAVE=yes

 

2、加载模块

写道
vim /etc/modprobe.d/dist.conf

alias bond0 bonding
options bond0 miimon=100 mode=0

 

对于这些参数解释,网上也是一大堆

写道
miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3,4,5,6四种模式,常用的为0,1两种。
mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。
mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.
bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用

这7种工作方式如下:

=0: (balance-rr) Round-robin policy: (平衡抡循环策略):传输数据包顺序是依次传输,直到最后一个传输完毕, 此模式提供负载平衡和容错能力。

=1: (active-backup) Active-backup policy:(主-备份策略):只有一个设备处于活动状态。 一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得。 此模式提供了容错能力。

=2:(balance-xor) XOR policy:(广播策略):将所有数据包传输给所有接口。 此模式提供了容错能力。

=3:(balance-xor) XOR policy:(平衡策略): 传输根据原地址布尔值选择传输设备。 此模式提供负载平衡和容错能力。

=4:(802.3ad) IEEE 802.3ad Dynamic link aggregation.IEEE 802.3ad 动态链接聚合:创建共享相同的速度和双工设置的聚合组。

=5:(balance-tlb) Adaptive transmit load balancing(适配器传输负载均衡):没有特殊策略,第一个设备传不通就用另一个设备接管第一个设备正在处理的mac地址,帮助上一个传。

=6:(balance-alb) Adaptive load balancing:(适配器传输负载均衡):大致意思是包括mode5,bonding驱动程序截获 ARP 在本地系统发送出的请求,用其中之一的硬件地址覆盖从属设备的原地址。就像是在服务器上不同的人使用不同的硬件地址一样。

 

3、重启网卡

写道
/etc/init.d/network restart

 

重启的时候,可以看到网卡是否成功启动,启动成功之后就是双网卡绑定状态了

 

至于网上大部分说的ifenslave bond0 eth0 eth1,这只是一条启用命令而已,像上述配置好了的话,这条命令根本不用执行了,也不用去开机执行,因为开机就会加载网卡配置文件了

 

若要查看绑定的网卡状态

写道
cat /proc/net/bonding/bond0


Ethernet Channel Bonding Driver: v3.5.0 (November 4, 2008)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth0
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b1:fc

Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b1:fd
 

ifenslave是centos默认就安装了,它的一些使用方法可以man看看

 

经过测试,双网卡绑定之后,带宽果然有增加至少50%

 

 

Ubuntu 10.04 server

 

没安装的话,执行

 

写道

apt-get install ifenslave-2.6

 

1、修改网卡配置

 

Ubuntu的稍微简单一些

 

 

 写道
vim /etc/network/interfaces

auto lo
iface lo inet loopback

auto bond0
iface bond0 inet static
address 192.168.4.132
netmask 255.255.255.0
gateway 192.168.4.1
post-up ifenslave bond0 eth0 eth1
pre-down ifenslave -d bond0 eth0 eth1

 

 

2、加载模块

 

首先执行

 

 写道
modprobe bonding

 

 这样就不用重启设备了

当然,配置文件也同样需要添加

 

 写道
vim /etc/modules

bonding mode=0 miimon=100

 

 

3、重启网卡

 

执行

 

 写道
/etc/init.d/networking restart

 

 

完成以后,同样可以查看一下bonding的状态

 

 写道
root@132:/etc/network# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth0
MII Status: up
Speed: 100 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b2:a2
Slave queue ID: 0

Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b2:a3
Slave queue ID: 0
 

 

参考来源:http://bbs.chinaunix.net/thread-2242919-1-1.html

http://singlegod.blog.51cto.com/1909710/565367

http://m114.org/system/linux/ubuntu-bonding.html

 

 

如果想改变bonding的工作模式的话,估计需要重启服务器,光重启网卡好像是不行的

你可能感兴趣的:(linux,bonding,双网卡绑定)