kube-ovn 从名字不难看出其是一款云原生的网络产品,将 SDN 等能力带入云原生领域。让 ovn/ovs 的使用更容易,屏蔽了复杂度,降低了使用的难度,并与云原生进行了结合。
借助 OVS/OVN 在 SDN 领域成熟的能力,Kube-OVN 将网络虚拟化的丰富功能带入云原生领域。目前已支持子网管理, 静态 IP 分配,分布式/集中式网关,Underlay/Overlay 混合网络, VPC 多租户网络,跨集群互联网络,QoS 管理, 多网卡管理,ACL 网络控制,流量镜像,ARM 支持, Windows 支持等诸多功能。
参考官方的准备工作文档,操作系统使用 Ubuntu 20.04 以及 k3s v1.23.8+k3s2。
在安装之前确保 /etc/cni/net.d/
目录内容为空,不为空则清空其下的所有文件。kube-ovn 本身通过实现 cni 来管理网络。
在安装 k3s 需要禁用 k3s 默认的网络策略控制器和flannel 的后端(默认是 VXLAN):
export INSTALL_K3S_VERSION=v1.23.8+k3s1
curl -sfL https://get.k3s.io | sh -s - --flannel-backend=none --disable-network-policy --disable=traefik --write-kubeconfig-mode 644 --write-kubeconfig ~/.kube/config
为了节省资源,我也禁用了 traefik Ingress 控制器。
此时检查 pod 会发现都处于 Pending 状态,这是因为还没安装 CNI。
kubectl get po -A
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system local-path-provisioner-6c79684f77-llvhk 0/1 Pending 0 11s
kube-system metrics-server-7cd5fcb6b7-kxm5j 0/1 Pending 0 11s
kube-system coredns-d76bd69b-jd6gm 0/1 Pending 0 11s
检查 node 提示 container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:Network plugin returns error: cni plugin not initialized
。
接下来就是安装 kube-ovn 了。
kube-ovn 的安装使用官方提供一键安装脚本:
wget https://raw.githubusercontent.com/kubeovn/kube-ovn/release-1.10/dist/images/install.sh
查看脚本中的配置:
REGISTRY="kubeovn" # 镜像仓库地址
VERSION="v1.10.6" # 镜像版本/Tag
POD_CIDR="10.16.0.0/16" # 默认子网 CIDR 不要和 SVC/NODE/JOIN CIDR 重叠
SVC_CIDR="10.96.0.0/12" # 需要和 apiserver 的 service-cluster-ip-range 保持一致
JOIN_CIDR="100.64.0.0/16" # Pod 和主机通信网络 CIDR,不要和 SVC/NODE/POD CIDR 重叠
LABEL="node-role.kubernetes.io/master" # 部署 OVN DB 节点的标签
IFACE="" # 容器网络所使用的的宿主机网卡名,如果为空则使用 Kubernetes 中的 Node IP 所在网卡
TUNNEL_TYPE="geneve" # 隧道封装协议,可选 geneve, vxlan 或 stt,stt 需要单独编译 ovs 内核模块
k3s 的默认 POD 和 SVC CIDR 分别是:10.42.0.0/16
和 10.43.0.0/16
,可以在安装时通过参数 --cluster-cidr
和 --service-cidr
分别进行设置。上面,安装 k3s 时使用了的默认配置,因此需要修改 install.sh
中的配置。
POD_CIDR="10.42.0.0/16"
POD_GATEWAY="10.42.0.1"
SVC_CIDR="10.43.0.0/12"
修改之后,运行脚本安装:
bash install.sh
确认所有 pod 启动并运行:
kubectl get po -A
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system ovs-ovn-trqk5 1/1 Running 0 2m37s
kube-system kube-ovn-monitor-5f8f5dbfc-plfrq 1/1 Running 0 108s
kube-system kube-ovn-controller-67bbd54575-2n87d 1/1 Running 0 108s
kube-system ovn-central-644fbb8467-xtrjc 1/1 Running 0 2m37s
kube-system kube-ovn-cni-glcfw 1/1 Running 0 108s
kube-system kube-ovn-pinger-2k72d 1/1 Running 0 71s
kube-system local-path-provisioner-6c79684f77-jh2zh 1/1 Running 0 71s
kube-system coredns-d76bd69b-w28rg 1/1 Running 0 37s
kube-system metrics-server-7cd5fcb6b7-8jgdm 1/1 Running 0 36s
检查 kube-system
下的 DaemonSet 类型应用,运行在各个 node 上负责 ovs/ovn、CNI 和网络检查 ping。
kubectl get ds -n kube-system
NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE
ovs-ovn 1 1 1 1 1 kubernetes.io/os=linux 3m14s
kube-ovn-cni 1 1 1 1 1 kubernetes.io/os=linux 2m25s
kube-ovn-pinger 1 1 1 1 1 kubernetes.io/os=linux 2m25s
至此 kube-ovn 就安装完成了,下面简单体验下 kube-ovn 的功能。
前面介绍 kube-ovn 安装时提到了子网,子网 是 kube-ovn 的核心概念。
Kube-OVN 会以子网来组织 IP 和网络配置,每个 Namespace 可以归属于特定的子网, Namespace 下的 Pod 会自动从所属的子网中获取 IP 并共享子网的网络配置(CIDR,网关类型,访问控制,NAT控制等)。
我们部署一个 pod,可以看到 k3s 从 kube-ovn 的默认子网中分配 IP 地址。所有没有设置子网的 namespace 的 pod IP 地址都位于该网段。
kubectl run pipy --image flomesh/pipy:latest -n default
kubectl get po -o wide -n default
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
pipy 1/1 Running 0 41s 10.42.0.10 ubuntu-dev1 <none> <none>
我们手动创建一个 namespace 和新的子网:
kubectl apply -f - <<EOF
apiVersion: v1
kind: Namespace
metadata:
creationTimestamp: null
name: another
---
apiVersion: kubeovn.io/v1
kind: Subnet
metadata:
name: another-subnet
spec:
protocol: IPv4
cidrBlock: 10.66.0.0/16
excludeIps:
- 10.66.0.1
gateway: 10.66.0.1
gatewayType: distributed
natOutgoing: true
namespaces:
- another
EOF
接下来验证一下,在 another
namespace 下创建新的 pod:
kubectl run curl --image rancher/curl --command sleep 1d -n another
kubectl get po -o wide -n another
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
curl 1/1 Running 0 14s 10.66.0.11 ubuntu-dev1 <none> <none>
可以看到 pod curl
从新的子网中获取了 IP 地址,试着访问之前创建的 pod:
kubectl exec -it curl -n another -- curl -i 10.42.0.10:8080
HTTP/1.1 200 OK
content-length: 11
connection: keep-alive
Hi, there!
不同的子网有什么用呢?试想这样的场景,有两个 namespace another
和 default
。要禁止 annother
中的 pod 对 default
中pod 的访问,第一时间想到的是 Kubernetes 的 Network Policy,或者借助其他的应用,比如之前介绍的 使用 Cilium 增强 Kubernetes 网络安全(也是网络内核层的实现),或者服务网格的访问控制。
但现在既然用 kube-ovn,可以使用 ovn 的 ACL 规则。
接下来,更新默认子网的设置,添加 ACL 规则:
kubectl apply -f - <<EOF
apiVersion: kubeovn.io/v1
kind: Subnet
metadata:
name: ovn-default
spec:
cidrBlock: 10.42.0.0/16
default: true
excludeIps:
- 10.42.0.1
gateway: 10.42.0.1
gatewayType: distributed
natOutgoing: true
protocol: IPv4
provider: ovn
vpc: ovn-cluster
acls:
- action: drop
direction: from-lport
match: ip4.src == 10.66.0.0/16 && ip
priority: 1002
EOF
这段 ACL 规则表示:丢弃(action: drop
)来自(direction: from-lport
)10.66.0.0/16
网段(match: ip4.src == 10.66.0.0/16 && ip
)的包,更多规则说明参考 ACL 规则文档。
此时再次访问,但是这回加上连接超时,因为不想等太久:
kubectl exec -it curl -n another -- curl -i --connect-timeout 5 10.42.0.10:8080
curl: (28) Connection timed out after 5000 milliseconds
command terminated with exit code 28
another
namespace 下的 pod 无法访问到 default
下的 pod,符合预期。
这篇仅仅展示了 kube-ovn 很基础的功能,基于 ovs/ovn 的强大能力,kube-ovn 还提供了其他更强大的功能,有兴趣的同学可以去参考官方的使用指南。
貌似应该要好好看看 ovs/ovn 了。
关注"云原生指北"微信公众号
(转载本站文章请注明作者和出处乱世浮生,请勿用于任何商业用途)