lvs-nat和lvs-dr实验

拓扑图:


lvs-nat和lvs-dr实验_第1张图片
image

1 准备实验环境,ip地址规划,ip的配置就省略了,不懂的看下计算机网络。

lvs-nat和lvs-dr实验_第2张图片
image

2 在vs调度器上面要开启路由转发功能:

vim /etc/sysctl.conf

net.ipv4.ip_forward=1

3 在路由器上面也是需要开启路由转发功能:

vim /etc/sysctl.conf

net.ipv4.ip_forward=1

4 在vs调度器设置调度方法,我这里设置为wrr,并在配置R1 R2

调度方法有2种:静态和动态

静态方法:仅根据算法本身进行调度
1 、RR :roundrobin ,轮询
2 、WRR :Weighted RR ,加权轮询
3 、SH :Source Hashing ,实现session sticky ,源IP 地址
hash ;将来自于同一个IP 地址的请求始终发往第一次挑中的
RS ,从而实现会话绑定
4 、DH :Destination Hashing ;目标地址哈希,将发往同一
个目标地址的请求始终转发至第一次挑中的RS ,典型使用场景
是正向代理缓存场景中的负载均衡,如:宽带运营商

动态方法:主要根据每RS 当前的负载状态及调度算法进行调度
Overhead=value  较小的RS 将被调度
1 、LC :least connections
Overhead=activeconns*256+inactiveconns
2 、WLC :Weighted LC, , 默认调度方法
Overhead=(activeconns*256+inactiveconns)/weight
3 、SED :Shortest Expection Delay, 初始连接高权重优先
Overhead=(activeconns+1)*256/weight
4 、NQ :Never Queue ,第一轮均匀分配,后续SED
5 、LBLC :Locality-Based LC ,动态的DH 算法,使用场景:
根据负载状态实现正向代理
6 、LBLCR :LBLC with Replication ,带复制功能的LBLC
解决LBLC 负载不均衡问题,从负载重的复制到负载轻的RS

配置vs调度方法

ipvsadm -A -t 172.16.100.200:80 -s wrr
ipvsadm -a -t 172.16.100.200:80 -r 192.168.100.101 -m -w 5
ipvsadm -a -t 172.16.100.200:80 -r 192.168.100.101 -m -w 3

5 在client客户端浏览器测试:输入ip地址 httpd://172.16.100.200

lvs-nat和lvs-dr实验_第3张图片
image
lvs-nat和lvs-dr实验_第4张图片
image

为了能够看到调度的权重:这里用一个命令来测试:

lvs-nat和lvs-dr实验_第5张图片
image
lvs-nat和lvs-dr实验_第6张图片
image

1 实验环境为以上拓扑图

2 ip地址规划 如下:具体配置过程省略。

lvs-nat和lvs-dr实验_第7张图片
image

3 在vs调度器配置如下:为了方便执行,编写一个脚本执行。

lvs-nat和lvs-dr实验_第8张图片
image

注意:这里的ip地址要添加一条指向路由器的默认网关,否则无法响应数据包。

4 R1 配置,也编写一个脚本:

lvs-nat和lvs-dr实验_第9张图片
image

5 R2 配置,也编写一个脚本:

lvs-nat和lvs-dr实验_第10张图片
image

6 客户端测试:

lvs-nat和lvs-dr实验_第11张图片
image
lvs-nat和lvs-dr实验_第12张图片
image

vip 和 rip 的地址不同 方法也一样!

你可能感兴趣的:(lvs-nat和lvs-dr实验)