微服务自动化.跨主机集群

一、容器间内部通信

  • bridge模式
  • host模式
  • 自定义网络
  • Container模式
  • None模式

二、跨主机通信
Docker默认的网络环境下 , 单台主机上的 Docker 容器可以通过 docker0 网桥直接通信 , 而不同主机上
的Docker 容器之间只能通过在主机上做端口映射进行通信。
这种端口映射方式对很多集群应用来说极不方便。
如果能让 Docker 容器之间直接使用自己的 IP 地址进行通信 , 会解决很多问题。
按实现原理可分别直接路由方式、桥接方式( 如 pipework) 、 Overlay 隧道方式 ( 如 flannel 、 ovs+gre) 等。

1、直接路由

微服务自动化.跨主机集群_第1张图片

2、Pipework  
pipework是由Docker的工程师Jérôme Petazzoni开发的一个Docker网络配置工具,由200多行shell实现,方便易用。下面用三个场景来演示pipework的使用和工作原理。

3、Flannel
Flannel 实质上是一种覆盖网络 (overlay network), 即表示运行在一个网上的网 ( 应用层网络 ), 并不依靠 ip 地址来传递消息 ,
而是采用一种映射机制 , 把 ip 地址和 identifiers 做映射来资源定位。
也就是将 TCP 数据包装在另一种网络包里面进行路由转发和通信 ,
目前已经支持 UDP 、 VxLAN 、 AWS VPC 和 GCE 路由等数据转发方式
Flannel 实现的容器的跨主机通信通过如下过程实现 :

  • 每个主机上安装并运行etcd和flannel;
  • 在etcd中规划配置所有主机的docker0子网范围;
  • 每个主机上的flannel根据etcd中的配置,为本主机的docker0分配子网,保证所有主机上的docker0网段不重复,并将结果(即本主机上的docker0子网信息和本主机IP的对应关系)存入 etcd库中,这样etcd库中就保存了所有主机上的docker子网信息和本主机IP的对应关系;
  • 当需要与其他主机上的容器进行通信时,查找etcd数据库,找到目的容器的子网所对应的outip(目的宿主机的IP);
  • 将原始数据包封装在VXLAN或UDP数据包中,IP层以outip为目的IP进行封装;
  • 由于目的IP是宿主机IP,因此路由是可达的;
  • VXLAN或UDP数据包到达目的宿主机解封装,解出原始数据包,最终到达目的容器。

微服务自动化.跨主机集群_第2张图片

①、Flannel特点

  • 使集群中的不同Node主机创建的Docker容器都具有全集群唯一的虚拟IP地址。
  • 建立一个覆盖网络(overlay network),通过这个覆盖网络,将数据包原封不动的传递到目标容器。覆盖网络是建立在另一个网络之上并由其基础设施支持的虚拟网络。覆盖网络通过将
  • 一个分组封装在另一个分组内来将网络服务与底层基础设施分离。在将封装的数据包转发到端点后,将其解封装。
  • 创建一个新的虚拟网卡flannel0接收docker网桥的数据,通过维护路由表,对接收到的数据进行封包和转发(vxlan)。
  • etcd保证了所有node上flanned所看到的配置是一致的。同时每个node上的flanned监听etcd上的数据变化,实时感知集群中node的变化。

三、环境搭建 

两台主机都要进行以下操作!!!!!!!!!!!

1、docker安装与配置
2、etcd安装与集群搭建
3、ETCD版本问题

ETCD3.4 版本中 ,ETCDCTL_API=3 和 etcd --enable-v2=false 成为了默认配置
flannel 操作 etcd 使用的是 v2 的 API, 而 kubernetes 操作 etcd 使用的 v3 的 API
为了兼容 flannel, 将默认开启 v2 版本 , 故配置文件中还要设置 :


①、修改配置文件

vi / etc / profile
export ETCDCTL_API=2 # 指定etcdctl命令的版本为v2 
 source /etc/profile 

②、api 2 使用方法

ETCDCTL_API=2 etcdctl set key value

ETCDCTL_API=2 etcdctl ls /

ETCDCTL_API = 2 etcdctl del / -- prefix

③、 api 3 使用方法
 

ETCDCTL_API=3 etcdctl put key value

ETCDCTL_API=3 etcdctl get /

ETCDCTL_API=3 etcdctl del / --prefix

4、 ETCD中保存网络信息

①、使用v2版的set命令向ETCD中保存flannel覆盖网络信息
ETCDCTL_API = 2 etcdctl \
-- endpoints "http://192.168.129.123:2379,http://192.168.129.124:2379" \
set / coreos . com / network / config \
'{"NetWork":"10.0.0.0/16","SubnetMin": "10.0.1.0","SubnetMax": "10.0.20.0","Backend": {"Type": "vxlan"}}'
  • Network: 用于指定Flannel地址池, 整个overlay(覆盖)网络为10.0.0.0/16网段.
  • SubnetLen: 用于指定分配给单个宿主机的docker0的ip段的子网掩码的长度,默认值也是24
  • SubnetMin: 用于指定最小能够分配的ip段
  • SudbnetMax: 用于指定最大能够分配的ip段,在上面的示例中,表示每个宿主机可以分配一个24位掩码长度的子网,可以分配的子网从10.0.1.0/24到10.0.20.0/24,也就意味着在这个网段中,最多只能有20台宿主机
  • Backend: 用于指定数据包以什么方式转发,默认为udp模式, 这里使用的是vxlan模式.因为为vxlan比起预设的udp性能相对好一些

三、flannel安装与配置

1、下载或上传flannel安装包  

2、创建flannel安装目录

mkdir - p / opt / flannel

3、解压到安装目录


tar xzf flannel-v0.11.0-linux-amd64.tar.gz -C /opt/flannel

4、查看解压后文件

cd /opt/flannel && ls

5、 为flannel创建一个systemd服务(用于后台启动)

vim /etc/systemd/system/flanneld.service

 flanneld.service:

[Unit]
Description=Flanneld
After=network.target
After=network-online.target
Wants=network-online.target
##1.flannel服务需要先于Docker启动,后于etcd启动
After=etcd.service
Before=docker.service


[Service]
User=root
##2.ExecStart即flanneld启动程序位置
##3.--etcd-endpoints参数为ectd集群客户端地址
##4.--iface参数为要绑定的网卡的IP地址,或是网卡名(ifconfig查看获得)请根据实际情况修改
ExecStart=/opt/flannel/flanneld \
--etcd-endpoints=http://192.168.129.123:2379,http://192.168.129.124:2379 \
--etcd-prefix=/coreos.com/network \
--iface=ens33 \
--ip-masq
Restart=on-failure
Type=notify
LimitNOFILE=65536
[Install]
WantedBy=multi-user.target

 6、更新配置文件中并启动flanneld

systemctl daemon - reload && systemctl restart flanneld

7、 验证flannel网络

ipconfig

四、docker配置


在各个节点安装好 Docker, 然后更改 Docker 的启动参数 , 使其能够使用 flannel 进行 IP 分配 , 以及网络通讯
1、查看flannel分配的网络参数
在Flannel运行之后,会生成一个环境变量文件,包含了当前主机要使用flannel通讯的相关参数
 

cat /run/flannel/subnet.env  

 2、创建Docker运行参数
使用flannel提供的脚本将subnet.env转写成Docker启动参数

/ opt / flannel / mk - docker - opts . sh - d / run / flannel / docker_opts . env - c

3、修改Docker启动参数

vim / lib / systemd / system / docker . service

下面是docker.service要修改的地方 

[Service] 节点中
指定启动参数所在的文件位置 ( 这个配置是新增的 )
EnvironmentFile=/run/flannel/docker_opts.env
在原有 ExecStart 后面添加 $DOCKER_OPTS
修改前 ExecStart=/usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sock
修改后 ExecStart=/usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sock $DOCKER_OPTS

4、重新加载systemd配置,并重启Docker

 systemctl daemon-reload && systemctl restart docker && systemctl status docker

5、查看是否应用成功

观察docker0的网卡ip地址已经处于flannel网卡网段中 

ipconfig 

五、测试flannel

1、下载centos镜像,因为此镜像中其它软件及命令均有安装

docker run - it -- name = centos centos bash

2、依次查看集群内容器的flannel.1网络IP

cat /etc/hosts

docker inspect bridge

3、从不同宿主机容器到其他宿主机容器  

ping - c3 192.168 .129 .124

ping -c3 10.0.19.2  

4、解决flannel下容器无法跨主机互通问题
经测试 , 发现是防火墙的问题 , 关闭防火墙后问题解决 , 但作为服务的防火墙是不能关闭的 , 如何解决呢。
这是由于 linux 还有底层的 iptables, 所以在 node 上分别执行 :


iptables - P INPUT ACCEPT
iptables - P FORWARD ACCEPT
iptables - F
iptables - L - n
 

你可能感兴趣的:(微服务,自动化,架构)