目录
【kubernetes】k8s高可用集群搭建(三主三从)
一、服务器设置
二、环境配置
1、关闭防火墙
2、关闭selinux
3、关闭swap
4、修改主机名(根据主机角色不同,做相应修改)
5、主机名映射
6、将桥接的IPv4流量传递到iptables的链
7、时间同步
8、master之间进行免密登录设置
三、安装部署
(一)配置部署keepalived服务
1、安装Keepalived(所有master主机)
2、k8s-master1/2/3节点配置
3、启动和检查
4、查看启动状态
5、启动完成后在master1查看网络信息
(二)配置部署haproxy服务
1、所有master主机安装haproxy
2、修改配置文件
3、启动和检查
4、查看启动状态
5、检查端口
(三)配置部署Docker服务(所有主机)
(四)部署kubelet kubeadm kubectl工具
1、使用 YUM 方式安装Kubernetes时,推荐使用阿里的yum。
2、安装kubelet kubeadm kubectl
(五)部署Kubernetes Master
1、创建kubeadm-config.yaml文件
2、查看所需镜像信息
3、下载k8s所需的镜像(所有master主机)
4、使用kubeadm命令初始化k8s
5、根据初始化的结果操作
6、查看集群状态
1)修改kube-controller-manager.yaml文件
2)修改kube-scheduler.yaml文件
3)查看集群状态
4)查看pod信息
5)查看节点信息
(六)安装集群网络
在k8s-master1节点执行
没有变成ready:(原因是网络插件缺失)
上传插件:
再次查看节点信息:
(七)添加master节点
1、在k8s-master2和k8s-master3节点创建文件夹
2、在k8s-master1节点执行
3、将其他master节点加入集群
查看节点信息
(八)加入Kubernetes Node
查看节点信息
查看pod信息
(九)测试Kubernetes集群
1、所有node主机下载测试镜像
2、在Kubernetes集群中创建一个pod,验证是否正常运行。
3、创建完 Deployment 的资源清单之后,使用 create 执行资源清单来创建容器。
4、创建Service资源清单
5、访问测试
四、拓展试验
(一)宕机master1,验证服务
(二)宕机master1/2,验证服务
(三)两台宕机主机恢复,验证服务
五、实验总结
准备6台虚拟机,3台master节点,3台node节点,保证master节点数为>=3的奇数。
网络:所有机器网络互通、可以访问外网
硬件:2核CPU+、2G内存+、硬盘20G+
IP地址 |
角色 |
主机名 |
需要用到的服务 |
192.168.100.131 |
master |
k8s-master1 |
keepalived haproxy docker kubectl kubeadm kubelet |
192.168.100.132 |
master |
k8s-master2 |
|
192.168.100.133 |
master |
k8s-master3 |
|
192.168.100.134 |
node |
k8s-node1 |
docker kubectl kubeadm kubelet |
192.168.100.135 |
node |
k8s-node2 |
|
192.168.100.136 |
node |
k8s-node3 |
|
192.168.100.154 |
VIP |
master.k8s.io |
代理master1/2/3 |
[root@localhost ~]# systemctl stop firewalld
[root@localhost ~]# systemctl disable firewalld
[root@localhost ~]# sed -i 's/enforcing/disabled/' /etc/selinux/config
[root@localhost ~]# setenforce 0
[root@localhost ~]# swapoff -a
[root@localhost ~]# sed -ri 's/.*swap.*/#&/' /etc/fstab
hostname k8s-node1 建议做永久主机名配置 hostnamectl set-hostname k8s-master1
bash
[root@k8s-master1 ~]# cat >> /etc/hosts << EOF
192.168.100.131 master1.k8s.io k8s-master1
192.168.100.132 master2.k8s.io k8s-master2
192.168.100.133 master3.k8s.io k8s-master3
192.168.100.134 node1.k8s.io k8s-node1
192.168.100.135 node2.k8s.io k8s-node2
192.168.100.136 node3.k8s.io k8s-node3
192.168.100.154 master.k8s.io k8s-vip
EOF
[root@k8s-master1 ~]# cat << EOF >> /etc/sysctl.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
[root@k8s-master1 ~]# modprobe br_netfilter
[root@k8s-master1 ~]# sysctl -p
[root@k8s-master1 ~]# yum install ntpdate -y
[root@k8s-master1 ~]# ntpdate time.windows.com
[root@k8s-master1 ~]# ssh-keygen
[root@k8s-master1 ~]# ssh-cpoy-id 192.168.100.131
[root@k8s-master1 ~]# ssh-cpoy-id 192.168.100.132
[root@k8s-master1 ~]# ssh-cpoy-id 192.168.100.133
同理:
master2/3操作,互相之间免密登录
[root@k8s-master1 ~]# yum install -y keepalived
[root@k8s-master1 ~]#
cat /etc/keepalived/keepalived.conf
k8s-master2节点配置
[root@k8s-master2 ~]#
cat /etc/keepalived/keepalived.conf
k8s-master3节点配置
[root@k8s-master3 ~]#
cat /etc/keepalived/keepalived.conf
所有master节点都要执行
[root@k8s-master1 ~]# systemctl start keepalived
[root@k8s-master1 ~]# systemctl enable keepalived
[root@k8s-master1 ~]# systemctl status keepalived
[root@k8s-master1 ~]# ip a s ens33
[root@k8s-master1 ~]# yum install -y haproxy
每台master节点中的配置均相同,配置中声明了后端代理的每个master节点服务器,指定了haproxy的端口为16443,因此16443端口为集群的入口。
[root@k8s-master1 ~]# cat /etc/haproxy/haproxy.cfg
所有master节点都要执行
[root@k8s-master1 ~]# systemctl start haproxy
[root@k8s-master1 ~]# systemctl enable haproxy
[root@k8s-master1 ~]# systemctl status haproxy
[root@k8s-master1 ~]# netstat -lntup|grep haproxy
所有主机上分别部署 Docker 环境,因为 Kubernetes 对容器的编排需要 Docker 的支持。
[root@k8s-master ~]# wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
[root@k8s-master ~]# yum install -y yum-utils device-mapper-persistent-data lvm2
使用 YUM 方式安装 Docker 时,推荐使用阿里的 YUM 源。
[root@k8s-master ~]# yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
[root@k8s-master ~]# yum clean all && yum makecache fast
[root@k8s-master ~]# yum -y install docker-ce
[root@k8s-master ~]# systemctl start docker
[root@k8s-master ~]# systemctl enable docker
镜像加速器(所有主机配置)
[root@k8s-master ~]# cat /etc/docker/daemon.json
[root@k8s-master ~]# systemctl daemon-reload
[root@k8s-master ~]# systemctl restart docker
所有主机配置
[root@k8s-master ~]#
cat /etc/yum.repos.d/kubernetes.repo
[root@k8s-master ~]# ls /etc/yum.repos.d/
backup Centos-7.repo CentOS-Media.repo CentOS-x86_64-kernel.repo docker-ce.repo kubernetes.repo
所有主机配置
[root@k8s-master ~]# yum install -y kubelet-1.20.0 kubeadm-1.20.0 kubectl-1.20.0
[root@k8s-master ~]# systemctl enable kubelet
在具有vip的master上操作。此处的vip节点为k8s-master1。
[root@k8s-master1 ~]# cat kubeadm-config.yaml
[root@k8s-master1 ~]# kubeadm config images list --config kubeadm-config.yaml
[root@k8s-master1 ~]# kubeadm config images pull --config kubeadm-config.yaml
[root@k8s-master1 ~]# kubeadm init --config kubeadm-config.yaml
初始化中的错误:
执行以下命令后重新执行初始化命令
[root@k8s-master1 ~]# echo "1" > /proc/sys/net/ipv4/ip_forward
[root@k8s-master1 ~]# kubeadm init --config kubeadm-config.yaml
[root@k8s-master1 ~]# mkdir -p $HOME/.kube
[root@k8s-master1 ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@k8s-master1 ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
[root@k8s-master1 manifests]# kubectl get cs
注意:出现以上错误情况,是因为/etc/kubernetes/manifests/下的kube-controller-manager.yaml和kube-scheduler.yaml设置的默认端口为0导致的,解决方式是注释掉对应的port即可
[root@k8s-master1 ~]# kubectl get cs
[root@k8s-master1 ~]# kubectl get pods -n kube-system
[root@k8s-master1 ~]# kubectl get nodes
[root@k8s-master1 ~]# docker load < flannel_v0.12.0-amd64.tar
[root@k8s-master1 ~]# tar xf cni-plugins-linux-amd64-v0.8.6.tgz
[root@k8s-master1 ~]# cp flannel /opt/cni/bin/
[root@k8s-master1 ~]# kubectl delete -f kube-flannel.yml 删除之前的apply操作
[root@k8s-master1 ~]# kubectl apply -f kube-flannel.yml
[root@k8s-master1 ~]# kubectl get nodes
[root@k8s-master2 ~]# mkdir -p /etc/kubernetes/pki/etcd
[root@k8s-master3 ~]# mkdir -p /etc/kubernetes/pki/etcd
从k8s-master1复制秘钥和相关文件到k8s-master2和k8s-master3
[root@k8s-master1 ~]# scp /etc/kubernetes/admin.conf [email protected]:/etc/kubernetes
[root@k8s-master1 ~]# scp /etc/kubernetes/pki/{ca.*,sa.*,front-proxy-ca.*} [email protected]:/etc/kubernetes/pki
[root@k8s-master1 ~]# scp /etc/kubernetes/pki/etcd/ca.* [email protected]:/etc/kubernetes/pki/etcd
[root@k8s-master1 ~]# scp /etc/kubernetes/admin.conf [email protected]:/etc/kubernetes
[root@k8s-master1 ~]# scp /etc/kubernetes/pki/{ca.*,sa.*,front-proxy-ca.*} [email protected]:/etc/kubernetes/pki
[root@k8s-master1 ~]# scp /etc/kubernetes/pki/etcd/ca.* [email protected]:/etc/kubernetes/pki/etcd
注意:kubeadm init生成的token有效期只有1天,生成不过期token
[root@k8s-master1 manifests]# kubeadm token create --ttl 0 --print-join-command
[root@k8s-master1 manifests]# kubeadm token list
k8s-master2和k8s-master3都需要加入
[root@k8s-master2 ~]# kubeadm join master.k8s.io:6443 --token pj2haa.zf72tyum7uiyeamx --discovery-token-ca-cert-hash sha256:aaec80f6efa10581c329034bef7e2c2f2f1cb2ef4228f8ddcfcbbb44df55aae3 --control-plane
[root@k8s-master2 ~]# mkdir -p $HOME/.kube
[root@k8s-master2 ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@k8s-master2 ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
[root@k8s-master2 ~]# docker load < flannel_v0.12.0-amd64.tar
[root@k8s-master2 ~]# tar xf cni-plugins-linux-amd64-v0.8.6.tgz
[root@k8s-master2 ~]# cp flannel /opt/cni/bin/
[root@k8s-master1 ~]# kubectl get nodes
[root@k8s-master1 manifests]# kubectl get pods --all-namespaces
直接在node节点服务器上执行k8s-master1初始化成功后的消息即可:
[root@k8s-node1 ~]# kubeadm join master.k8s.io:6443 --token o3j9wj.58io4u28r6q8o9lj --discovery-token-ca-cert-hash sha256:6ad29ff932b12680844e140938eaeaaca120d6020c273b6b56d69d256fbc44b0
[root@k8s-node1 ~]# docker load < flannel_v0.12.0-amd64.tar
[root@k8s-master1 ~]# kubectl get nodes
[root@k8s-master1 ~]# kubectl get pods -n kube-system
[root@k8s-node1 ~]# docker pull nginx:1.19.0
[root@k8s-master1 ~]# mkdir demo
[root@k8s-master1 ~]# cd demo
[root@k8s-master1 demo]# vim nginx-deployment.yaml
通过 get pods 可以查看到 Pod 容器资源已经自动创建完成。
[root@k8s-master1 demo]# kubectl create -f nginx-deployment.yaml
[root@k8s-master1 demo]# kubectl get pods
[root@k8s-master1 ~]# kubectl get pods -o wide
在创建的 nginx-service 资源清单中,定义名称为 nginx-service 的 Service、标签选择器为 app: nginx、type 为 NodePort 指明外部流量可以访问内部容器。在 ports 中定义暴露的端口库号列表,对外暴露访问的端口是 80,容器内部的端口也是 80。
[root@k8s-master1 demo]# vim nginx-service.yaml
[root@k8s-master1 demo]# kubectl create -f nginx-service.yaml
[root@k8s-master1 demo]# kubectl get svc
通过浏览器访问nginx:http://master.k8s.io:31350 域名或者VIP地址
[root@k8s-master1 demo]# elinks --dump http://master.k8s.io:31350
浏览器测试:192.168.100.154:31350
挂起k8s-master1节点,刷新页面还是能访问nginx,说明高可用集群部署成功。
检查会发现VIP已经转移到k8s-master2节点上
[root@k8s-master2 ~]# ip a s ens33
验证操作master
[root@k8s-master2 ]#kubectl get nodes
至此Kubernetes企业级高可用环境完美实现。
以此类推,停掉master2的服务,vip跳转至master3,服务仍保持
检查会发现VIP已经转移到k8s-master3节点上
[root@k8s-master3 ~]# ip a s ens33
验证操作master
[root@k8s-master3 ]#kubectl get nodes
Master1:
Master2:
Master3:
访问服务:
1、集群中只要有一个master节点正常运行就可以正常对外提供业务服务。
2、如果需要在master节点使用kubectl相关的命令,必须保证至少有2个master节点正常运行才可以使用,不然会有 Unable to connect to the server: net/http: TLS handshake timeout 这样的错误。
3、当一台可以查看nodes节点的master宕机之后,其余两台随机一台获取vip,然后可以观察nodes节点,但是当超过两台master宕机之后,集群需重建才可以观察nodes节点,但服务未停止;当两台宕机主机回复之后,服务停止,node节点不可观察,集群停止,需重建!
4、Node节点故障时pod自动转移:当pod所在的Node节点宕机后,根据 controller-manager的–pod-eviction-timeout 配置,默认是5分钟,5分钟后k8s会把pod状态设置为unkown, 然后在其它节点启动pod。当故障节点恢复后,k8s会删除故障节点上面的unkown pod。如果你想立即强制迁移,可以用 kubectl drain nodename
5、为了保证集群的高可用性,建议master节点和node节点至少分别部署3台及以上,且master节点应该部署基数个实例(3、5、7、9)。