端口聚合(IEEE802.3ad Port Trunking)

可将2至8个10/100Base-TX端口聚合成一条干路,在全双工工作模式下达到400Mbps-1.6Gbps的带宽。端口聚合技术能充分利用现有设备实现高速数据传递,也可以通过千兆端口聚合技术实现千兆位链路的聚合,最多可以聚合4Gbps的链路带宽。

Broadcom Gigabit Ethernet Adapter Teaming

任何可用的千兆BRODCOM网卡都可以配置为TEAM的一部分.TEAMING是一种将多块千兆BRODCOM网卡绑定作为一个虚拟网卡.好处就是负载均衡.

通过选择每一个可用的千兆BRODCOM网卡并添加它们到负载均衡成员栏来创建TEAM.对于用户和应用程序,只看到一个虚的网卡.负载均衡组中的成员共享绑定的数据流.在一个基本的成员区域中,任一个千兆BRODCOM网卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主

成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制.

创建teaming包含下列几个步骤:

* 打开BASP属性窗口

* 创建teams

* 添加网卡到teams

* 分配一个IP地址给teamss

* 重启机器

BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare的一个broadcom的中介型驱动程

序,需要先安装对应的broadcom网卡驱动程序.

目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现.

注意: 一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员.

BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作.

BASP FOR Windows 2000 & 20003 & NT提供以下选项:

- 支持下列网卡作为故障应急(failover)

  Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server

adapters;intel 1000baseSX server adapter;

  intel 82559 板载网卡

- 智能负载均衡,交换机不需设置.

- 普通链路聚合(GEC/FEC,Open Trunk),需要在交换机上启用trunking

- IEEE802.3ad链路聚合(静态配置),需要交换机支持802.3ad

- 通过IEEE802.1Q-1988tagging,每个网卡最多支持64个VLANS,只支持braodcom或Alteon网卡

BASP FOR RH Linux 提供以下几种team的模式:

- 智能负载均衡

- 普通链路聚合(GEC/FEC,Open Trunk),需要在交换机上启用trunking

- IEEE802.3ad链路聚合(静态配置),需要交换机支持802.3ad

- VLAN Pachket tagging

Smart Load Balancing (SLB)

Broadcom 的负载均衡使用IP流。该属性通过在多个网卡上以双向方式均衡网络IP流量。当处于这种模式下,所有的在同一个队中的网卡使用物理网卡的MAC地址。提供错误监测和在成员网卡或备用成员网卡中的动态冗余切换,该工作机制通过第3层协议来实现,可以在2层或3层交换机中工作。对于负载均衡的TEAM, 交换机上不需要做相关配置.

Link Aggregation (802.3ad)

链路聚合模式基于IEEE 802.3ad(LACP)规范。该模式允许客户动态的修改队列中网卡的属性。如果链路双方没有正确的按照802.3ad 配置,那末系统会标志出错误。所有的成员网卡通过相同的MAC地址接受数据包。链路聚合模式中链路必须有一方处于活动状态。

Generic Link Aggregation (Trunking)

Trunking模式跟802.3ad十分相同,不提供LACP等协议的支持。该模式只能静态的修改链路一端来适应不同的网络环境,比如说朗讯的'OpenTrunk'或者CISCO的'Fast EtherConnect(FEC).换句话说,Trunking 是802.3ad的简易版。

-------------------------------------------

问题如下:

DELL的双网卡绑定的带宽扩展是基于端口聚合得以实现的,如果交换设备不支持802.3ad,则双网卡绑定仅能实现(主/备用端口)模式,而如需双网卡同时以双工方式工作,则必须交换设备对802.3ad的支持,不知我的如上理解是否正确?

如果DELL熟悉此方面知识的技术人员有兴趣,可以与我Email联系:[email protected]



保持服务器的高可用性是企业级 IT 环境的重要因素。其中最重要的一点是服务器网络连接的高可用性。网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能。

Linux双网卡绑定的实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。  

配置一共四个步骤:

实验的操作系统是Redhat Linux Enterprise 3.0

绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片


双网卡邦定的拓朴图(请DELL论坛管理员将下图贴出,谢谢!)


1.编辑虚拟网络接口配置文件,指定网卡IP  

vi /etc/sysconfig/ network-scripts/ ifcfg-bond0  

[root@rhas-13 root]# cp  /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0

2 #vi ifcfg-bond0  

将第一行改成 DEVICE=bond0  

# cat ifcfg-bond0

DEVICE=bond0

BOOTPROTO=static

IPADDR=172.31.0.13

NETMASK=255.255.252.0

BROADCAST=172.31.3.254

ONBOOT=yes

TYPE=Ethernet

这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。

[root@rhas-13 network-scripts]# cat ifcfg-eth0  

DEVICE=eth0

ONBOOT=yes

BOOTPROTO=dhcp

[root@rhas-13 network-scripts]# cat ifcfg-eth1  

DEVICE=eth0

ONBOOT=yes

BOOTPROTO=dhcp

3 # vi /etc/modules.conf  

编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0  


加入下列两行  

alias bond0 bonding  

options bond0 miimon=100 mode=1  

说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。

  mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。

  mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.  

bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用

4 # vi /etc/rc.d/rc.local  

加入两行  

ifenslave bond0 eth0 eth1  

route add -net 172.31.3.254 netmask 255.255.255.0 bond0  

到这时已经配置完毕重新启动机器.

重启会看见以下信息就表示配置成功了

................  

Bringing up interface bond0 OK  

Bringing up interface eth0 OK  

Bringing up interface eth1 OK  

................

下面我们讨论以下mode分别为0,1时的情况

mode=1工作在主备模式下,这时eth1作为备份网卡是no arp的

[root@rhas-13 network-scripts]# ifconfig  验证网卡的配置信息

bond0     Link encap:Ethernet  HWaddr 00:0E:7F:25:D9:8B

         inet addr:172.31.0.13  Bcast:172.31.3.255  Mask:255.255.252.0

         UP BROADCAST RUNNING MASTER MULTICAST  MTU:1500  Metric:1

         RX packets:18495 errors:0 dropped:0 overruns:0 frame:0

         TX packets:480 errors:0 dropped:0 overruns:0 carrier:0

         collisions:0 txqueuelen:0

         RX bytes:1587253 (1.5 Mb)  TX bytes:89642 (87.5 Kb)


eth0      Link encap:Ethernet  HWaddr 00:0E:7F:25:D9:8B

         inet addr:172.31.0.13  Bcast:172.31.3.255  Mask:255.255.252.0

         UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1

         RX packets:9572 errors:0 dropped:0 overruns:0 frame:0

         TX packets:480 errors:0 dropped:0 overruns:0 carrier:0

         collisions:0 txqueuelen:1000

         RX bytes:833514 (813.9 Kb)  TX bytes:89642 (87.5 Kb)

         Interrupt:11


eth1      Link encap:Ethernet  HWaddr 00:0E:7F:25:D9:8B

         inet addr:172.31.0.13  Bcast:172.31.3.255  Mask:255.255.252.0

         UP BROADCAST RUNNING NOARP SLAVE MULTICAST  MTU:1500  Metric:1

         RX packets:8923 errors:0 dropped:0 overruns:0 frame:0

         TX packets:0 errors:0 dropped:0 overruns:0 carrier:0

         collisions:0 txqueuelen:1000

         RX bytes:753739 (736.0 Kb)  TX bytes:0 (0.0 b)

         Interrupt:15

   那也就是说在主备模式下,当一个网络接口失效时(例如主交换机掉电等),不回出现网络中断,系统会按照cat /etc/rc.d/rc.local里指定网卡的顺序工作,机器仍能对外服务,起到了失效保护的功能.

在mode=0    负载均衡工作模式,他能提供两倍的带宽,下我们来看一下网卡的配置信息

[root@rhas-13 root]# ifconfig

bond0     Link encap:Ethernet  HWaddr 00:0E:7F:25:D9:8B

         inet addr:172.31.0.13  Bcast:172.31.3.255  Mask:255.255.252.0

         UP BROADCAST RUNNING MASTER MULTICAST  MTU:1500  Metric:1

         RX packets:2817 errors:0 dropped:0 overruns:0 frame:0

         TX packets:95 errors:0 dropped:0 overruns:0 carrier:0

         collisions:0 txqueuelen:0

         RX bytes:226957 (221.6 Kb)  TX bytes:15266 (14.9 Kb)


eth0      Link encap:Ethernet  HWaddr 00:0E:7F:25:D9:8B

         inet addr:172.31.0.13  Bcast:172.31.3.255  Mask:255.255.252.0

         UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1

         RX packets:1406 errors:0 dropped:0 overruns:0 frame:0

         TX packets:48 errors:0 dropped:0 overruns:0 carrier:0

         collisions:0 txqueuelen:1000

         RX bytes:113967 (111.2 Kb)  TX bytes:7268 (7.0 Kb)

         Interrupt:11


eth1      Link encap:Ethernet  HWaddr 00:0E:7F:25:D9:8B

         inet addr:172.31.0.13  Bcast:172.31.3.255  Mask:255.255.252.0

         UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1

         RX packets:1411 errors:0 dropped:0 overruns:0 frame:0

         TX packets:47 errors:0 dropped:0 overruns:0 carrier:0

         collisions:0 txqueuelen:1000

         RX bytes:112990 (110.3 Kb)  TX bytes:7998 (7.8 Kb)

         Interrupt:15

     在这种情况下出现一块网卡失效,仅仅会是服务器出口带宽下降,也不会影响网络使用.

     通过查看bond0的工作状态查询能详细的掌握bonding的工作状态

[root@rhas-13 bonding]# cat /proc/net/bonding/bond0

bonding.c:v2.4.1 (September 15, 2003)


Bonding Mode: load balancing (round-robin)

MII Status: up

MII Polling Interval (ms): 0

Up Delay (ms): 0

Down Delay (ms): 0

Multicast Mode: all slaves


Slave Interface: eth1

MII Status: up

Link Failure Count: 0

Permanent HW addr: 00:0e:7f:25:d9:8a


Slave Interface: eth0

MII Status: up

Link Failure Count: 0

Permanent HW addr: 00:0e:7f:25:d9:8b

    Linux下通过网卡邦定技术既增加了服务器的可靠性,又增加了可用网络带宽,为用户提供不间断的关键服务。以上方法均在redhat的多个版本测试成功!  

参考文档:

/usr/share/doc/kernel-doc-2.4.21/networking/bonding.txt