linux网络通信服务器多网卡,Linux下实现多网卡绑定详解

使用bind绑定多个网卡

由于服务器上对于可用性的要求都比较高,对于各项功能都会有有冗余设计,比如,磁盘、电源、网卡、甚至服务器本身等等,今天尝试做一下网卡绑定实现网卡的冗余。

网卡绑定的实现表面上看起来有些像是硬盘实现逻辑卷,都是通过创建一个逻辑设备来实现的。实现网卡的绑定其实还挺简单的,相比逻辑卷更容易理解。

首先,我们在/etc/sysconfig/network-scripts/目录下创建一个文件,文件名通常会叫ifcfg-bondxx,除了ifcfg-后面的内容其实都是可以自己定义的,但通常都会写成bind之类的,文件的内容其实和普通网卡配置文件的内容是一样的,就像这样

DEVICE=bond1

BOOTPROTO=static

IPADDR=172.20.16.121

GATEWAY=172.20.0.1

PREFIX=16

BONDING_OPTS="miimon=100 mode=1"

第一行的DEVICE是你给这个逻辑设备指定的名字,这个名字得和文件名的后半部分一样。

第二行是指定IP的获取方式,你也可以写dhcp让他自动获取,如果是自动获取,那么IPADDR、GATEWAY和PREFIX都不需要再填

最后一行是比较重要的,必须得填,这个是绑定网卡的选项,mode代表绑定网卡的工作模式,miimon是一个时间间隔,代表备份网卡每隔多久查询一次工作网卡的工作情况。单位是ms

以上只是第一步,逻辑网卡已经创建好了,下面就要指定那些网卡属于这个逻辑网卡了。也很简单,只要把你想加入这个逻辑网卡的物理网卡的配置文件稍微修改一下就可以了。就像这样

TYPE="Ethernet"

BOOTPROTO=static

NAME=eth1

MASTER=bond1

SLAVE=yes

USERCTL=no

DEVICE=eth1

ONBOOT=yes

IPADDR=192.168.20.110

GATEWAY=192.168.0.1

PREFIX=16

其实后面的三行是无效的,不过我懒得删掉了,比较重要的是MASTER=bond1,SLAVE=yes,这两行指定了该网卡是属于逻辑网卡bond1的从属设备,DEVICE也是必须的,它指明了这个配置文件是给哪个网卡用的,其他的没有也可以,不过建议写上ONBOOT=yes

现在我们添加了第一个网卡到逻辑网卡,添加第二块的方法和第一个是一样的。换个文件而已。不在说。

然后我们就可以重启我们的网络服务了,在CentOS7中是用systemctl restart network之后就可以看看成果了。如果没有问题的话在执行ifconfig之后会看到下面的内容:

[root@cent7 network-scripts]# ifconfig

bond1: flags=5187  mtu 1500

inet 172.20.16.121  netmask 255.255.0.0  broadcast 172.20.255.255

inet6 fe80::250:56ff:fe3b:6a38  prefixlen 64  scopeid 0x20

ether 00:50:56:3b:6a:38  txqueuelen 1000  (Ethernet)

RX packets 212  bytes 21252 (20.7 KiB)

RX errors 0  dropped 0  overruns 0  frame 0

TX packets 13  bytes 1000 (1000.0 B)

TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

……

eth1: flags=6211  mtu 1500

ether 00:50:56:3b:6a:38  txqueuelen 1000  (Ethernet)

RX packets 1224  bytes 176616 (172.4 KiB)

RX errors 0  dropped 0  overruns 0  frame 0

TX packets 265  bytes 73426 (71.7 KiB)

TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

eth2: flags=6211  mtu 1500

ether 00:50:56:3b:6a:38  txqueuelen 1000  (Ethernet)

RX packets 286  bytes 35478 (34.6 KiB)

RX errors 0  dropped 0  overruns 0  frame 0

TX packets 62  bytes 5878 (5.7 KiB)

TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

最明显的就是多了一个叫bond1的网卡,而且是有IP的,eth1和2有同样的mac地址,并且都没有IP,我们可以通过查看 /proc/net/bonding/bond1 这个文件中的内容来看bond1的工作情况,如果你乐意还可以手工下线一个网卡看看这个绑定的设备的工作情况。

还记得bond1配置文件中的BONDING_OPTS="miimon=100 mode=1"这一行吗 ,其实这个mode是有好几种的,不过我们常用的并不多,比如mode0是轮巡代表数据包会从头到尾经过每一个网卡,这种模式提供了负载均衡的能力和一定的容错性,还有mode3,这种模式数据包会独立通过每一个网卡,每个网卡也会给一个响应,具体体现就是数据的每一个请求都会得到多个回应。如果你想知道更多,下面有一个官方的文档。

https://www.kernel.org/doc/Documentation/networking/bonding.txt

使用team绑定多个网卡

在centos7中也可以使用bond进行多网卡绑定,不过centos7中有更好的实现方法,建议在centos7中使用。首先还是修改配置文件的方法进行绑定。其格式和步骤和bond并没有什么区别。看一下文件格式。

首先是team0也就是那个逻辑网卡配置文件的格式

DEVICE=team0

DEVICETYPE=Team

TEAM_CONFIG="{\"runner\":{\"name\":\"activebackup\"}}"

BOOTPROTO=none

IPADDR=172.20.16.121

PREFIX=16

NAME=team0

ONBOOT=yes

大部分内容都是一样的,只有第三行的TEAM_CONFIG有些差别,不过第三行除了activebackup这个单词,其他部分是不需要变动的,这个单词对应的就是mode部分,比如activebackup对应mode1,其他还有比如:broadcast roundrobin activebackup loadbalance

然后就是从网卡的配置,也是差不多的

DEVICE=eth1

DEVICETYPE=TeamPort

TEAM_MASTER=team0

NAME=eth1

ONBOOT=yes

配置文件修改之后就可以重启网络服务生效了。完成之后的ifconfig和之前的并无太大差别:

[root@cent7 network-scripts]# ifconfig

eth1: flags=4163  mtu 1500

ether be:27:a5:16:09:f8  txqueuelen 1000  (Ethernet)

RX packets 1280  bytes 182697 (178.4 KiB)

RX errors 0  dropped 0  overruns 0  frame 0

TX packets 299  bytes 75980 (74.1 KiB)

TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

eth2: flags=4163  mtu 1500

ether be:27:a5:16:09:f8  txqueuelen 1000  (Ethernet)

RX packets 359  bytes 42823 (41.8 KiB)

RX errors 0  dropped 0  overruns 0  frame 0

TX packets 72  bytes 6582 (6.4 KiB)

TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

team0: flags=4163  mtu 1500

inet 172.20.16.121  netmask 255.255.0.0  broadcast 172.20.255.255

inet6 fe80::bc27:a5ff:fe16:9f8  prefixlen 64  scopeid 0x20

ether be:27:a5:16:09:f8  txqueuelen 1000  (Ethernet)

RX packets 36  bytes 3261 (3.1 KiB)

RX errors 0  dropped 0  overruns 0  frame 0

TX packets 19  bytes 1326 (1.2 KiB)

TX errors 0  dropped 2 overruns 0  carrier 0  collisions 0

或者也可以使用nmcli命令直接生成对应的配置文件

nmcli con add type team con-name team0 ifname team0 config '{"runner": {"name": "loadbalance"}}'

nmcli con mod team0 ipv4.addresses 192.168.1.100/24

nmcli con mod team0 ipv4.method manual

nmcli con add con-name eth1 type team-slave ifname eth1 master team0

nmcli con add con-name eth2 type team-slave ifname eth2 master team0

nmcli con up team0

nmcli con up eth1

nmcli con up eth2

上面的前三行是可以合成一行的,只是太长了,

add是增加

type team 表示增加的是一个team类型的

con-name team0 指定连接名称

ifname team0 表示指定接口,

config 这部分是配置信息,和之前手写配置文件内容格式相同

mod是修改指定连接

ipv4.addresses 指定ip地址

ipv4.method manual 表示手动指定ip,如果为空则自动选择(如果使用手动ip,此选项必须添加)

之后的两行

type team-slave 表示该设备是从属设备

master team0 指定设备连接属于谁

最后三行启用相关设备。

使用teamdctl team0 stat 可以查看team连接的详细信息

0b1331709591d260c1c78e86d0c51c18.png

你可能感兴趣的:(linux网络通信服务器多网卡)