Centos8 部署高可用K8S

机器准备

系统初始配置

添加国内镜像源

软件安装、配置

使用kubeadm部署kubernetes

安装flannel网络

一、机器准备

本次试验准备的机器如下,需要注意的是k8s 要求 CPU 最低为 2 核,否则部署过程过程中会报错,虽然可以使用"–ignore-preflight-errors=…"参数忽视,但是这里不建议使用低于2CPU的配置部署k8s


二、系统初始配置

1、关闭swap:

kubernetes的想法是将实例紧密包装到尽可能接近100%。 所有的部署应该与CPU /内存限制固定在一起。 所以如果调度程序发送一个pod到一台机器,它不应该使用交换。 设计者不想交换,因为它会减慢速度,所以关闭swap主要是为了性能考虑,当然为了一些节省资源的场景,比如运行容器数量较多,可添加kubelet参数 --fail-swap-on=false来解决。

swapoff -a

sed-ri's/.*swap.*/#&/'/etc/fstab

2、关闭所有防火墙

systemctl stop firewalld

systemctl disable firewalld

3、禁用SELINUX

setenforce 0

sed-i's/SELINUX=enforcing/SELINUX=disabled/g'/etc/selinux/config


4、将桥接的IPv4流量传递到iptables的链

cat>/etc/sysctl.d/k8s.conf<

net.bridge.bridge-nf-call-ip6tables = 1

net.bridge.bridge-nf-call-iptables = 1

EOF

sysctl --system


5、kube-proxy开启ipvs的前置配置

cat>/etc/sysconfig/modules/ipvs.modules<

#!/bin/bash

modprobe -- ip_vs

modprobe -- ip_vs_rr

modprobe -- ip_vs_wrr

modprobe -- ip_vs_sh

modprobe -- nf_conntrack_ipv4

EOF

chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod|grep-e ip_vs -e nf_conntrack_ipv4


三、添加国内镜像源


1、添加centos8镜像源

curl http://mirrors.aliyun.com/repo/Centos-8.repo>/etc/yum.repos.d/Centos-8.repo


2、添加k8s源

cat < /etc/yum.repos.d/kubernetes.repo[kubernetes]name=Kubernetes

baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/

enabled=1

gpgcheck=0

repo_gpgcheck=0

gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

EOF


3、添加ocker-ce源

curl https://mirrors.ustc.edu.cn/docker-ce/linux/centos/docker-ce.repo > /etc/yum.repos.d/docker-ce.repo

sed -i 's+download.docker.com+mirrors.tuna.tsinghua.edu.cn/docker-ce+' /etc/yum.repos.d/docker-ce.repo

四、软件安装、配置

1、升级containerd

cd /opt

wget https://download.docker.com/linux/centos/7/x86_64/edge/Packages/containerd.io-1.2.6-3.3.el7.x86_64.rpm

yum localinstall  containerd.io-1.2.6-3.3.el7.x86_64.rpm

1、软件安装(其中keepalived、haproxy的安装配置只需要在三台master节点上操作)

yum install keepalived haproxy -y

yum install ipset ipvsadm -y

yum install yum-utils device-mapper-persistent-data lvm2 -y

yum install container-selinux -y

yum install docker-ce -y

yum install kubelet kubeadm kubectl -y


2、配置keepalived(三台master节点操作)

1)配置keepalived

vim /etc/keepalived/keepalived.conf

清空内容后将如下内容填写到配置文件

! Configuration File for keepalived

global_defs {

  notification_email {

    root@localhost

  }

  notification_email_from [email protected]

  smtp_server 127.0.0.1

  smtp_connect_timeout 30

  router_id keepalived_lvs1

}

vrrp_instance VI_1 {

    state MASTER

    interface ens35

    virtual_router_id 55

    priority 100

    advert_int 1

    authentication {

        auth_type PASS

        auth_pass Kubernetes

    }

    virtual_ipaddress {

        10.255.253.88

    }

}

注意:

修改interface ens35中的ens35改为服务模块节点实际的网卡名

Master01、Master02、Master03三个节点的router_id分别改为router_id keepalived_lvs1、router_id keepalived_lvs2、router_id keepalived_lvs3

Master01、Master02、Master03三个节点中的state分别修改为state MASTER、state BACKUP、state BACKUP

Master01、Master02、Master03三个节点中的priority 值分别设置为设置为100、99、98

将10.255.253.88修改为实际使用的vip

2)启动服务

systemctl start keepalived && systemctl enable keepalived && systemctl status keepalived


2、配置haproxy(三台master节点操作)

1)配置haproxy

vim /etc/haproxy/haproxy.cfg

清空内容后将如下内容填写到配置文件

global

  #设置日志

    log 127.0.0.1 local7 info

    #用户与用户组

    user root

    group root

    #守护进程启动

    daemon

    #最大连接数

    maxconn 4000

#默认配置

defaults

    log global

    mode http

    option httplog

    option dontlognull

    timeout connect 5000

    timeout client 50000

    timeout server 50000

listen stats

    bind 0.0.0.0:1080

    stats enable

    stats uri /haproxyadmin

    stats auth admin:admin

    stats admin if TRUE

frontend localnodes

    bind *:6444

    mode tcp

    option tcplog

    default_backend kube_apiserver

    timeout client  1m

backend kube_apiserver

    mode tcp

    balance roundrobin

    option tcp-check

    server server1 10.255.253.40:6443 check port 6443 inter 2000 rise 3 fall 3 weight 30

    server server2 10.255.253.41:6443 check port 6443 inter 2000 rise 3 fall 3 weight 30

    server server3 10.255.253.42:6443 check port 6443 inter 2000 rise 3 fall 3 weight 30


注意:

将10.255.253.40、10.255.253.41、10.255.253.42修改为实际ip地址

2)启动服务

systemctl enable haproxy && systemctl start haproxy && systemctl status haproxy


3、配置docker(所有节点操作)

1)修改docker 的Cgroup Driver为systemd

修改或创建/etc/docker/daemon.json,加入下面的内容:

{

"exec-opts":["native.cgroupdriver=systemd"]

}


2)启动docker、设置kubelet开机自启(这里先不要开启kubelet服务)

systemctl enable docker&& systemctl start docker && systemctl enable kubelet


五、使用kubeadm部署kubernetes

1、打印kubeadm的配置文件(master01节点操作)

kubeadm config print init-defaults>kubeadm-config.yml


2、编辑kubeadm-config.yml文件(master01节点操作)

vim kubeadm-config.yml

将advertiseAddress选项中的ip地址改为Master01的地址


添加controlPlaneEndpoint配置,其中ip地址为 vip,端口为haproxy映射6443的前端端口6444


添加podSubnet选项,如果使用flannel网络,则该处为podSubnet: 10.244.0.0/16


将容器镜像仓库改为阿里仓库

imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers


将kubeproxy的mode改为ipvs

添加以下内容

---

apiVersion: kubeproxy.config.k8s.io/v1alpha1

kind: KubeProxyConfiguration

mode: ipvs


3、初始化master01节点

kubeadm init --config=kubeadm-config.yml --upload-certs


4、等master01节点初始化完成后逐个将Master02、Master03、Node01、Node02加入集群

Master01初始化完成后会出现如下字段、Master02、Master03上执行上面的kubeadm join命令加入集群,Node01、Node02节点使用下面的kubeadm join命令加入集群


5、配置kubctl

mkdir -p $HOME/.kube && sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config && sudo chown $(id -u):$(id -g) $HOME/.kube/config


五、安装flannel网络

1、获取flannel网络的yaml文件

wget  https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml



2、部署flannel网络

kubectl apply -f kube-flannel.yml


4、等待一段时间后,查看所有pod的状态为Running、所有节点的状态是Ready,则集群正常

kubectl get pods -n kube-system

5、镜像拉取失败

查看失败节点信息

kubectl describe pod kube-flannel-ds-h75b4 -n kube-system


进入Node01手动下载

docker pull quay.io/coreos/flannel:v0.13.1-rc1




kubectl get nodes


至此,高可用架构的Kubernetes集群搭建完成。

你可能感兴趣的:(Centos8 部署高可用K8S)