基于calico部署k8s集群k8s-1.23.6

1、资源清单

主机名 IP地址 系统版本 CPU 内存
mn01 192.168.242.130 redhat 7.9 2C 4GB
ln0 192.168.242.131 redhat 7.9 2C 4GB
cn01 192.168.242.129 redhat 7.9 2C 4GB

2、系统配置(所有节点都要进行)

1、安装所需软件

yum install vim net-tools wget lsof ipset ipvsadm iproute-tc -y

2、主机名解析
为了方便集群节点间的直接调用,在这个配置一下主机名解析,企业中推荐使用内部DNS服务器

# 添加如下内容
192.168.242.131 ln0
192.168.242.130 mn01
192.168.242.129 cn01

3、时间同步
kubernetes要求集群中的节点时间必须精确一直,这里使用chronyd服务从网络同步时间

企业中建议配置内部的会见同步服务器

# 启动chronyd服务
[root@mn01~]# systemctl start chronyd
[root@mn01~]# systemctl enable chronyd
[root@mn01~]# date

4、禁用iptable和firewalld服务(防火墙)
kubernetes和docker 在运行的中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则

# 1 关闭firewalld服务
[root@mn01~]# systemctl stop firewalld
[root@mn01~]# systemctl disable firewalld
# 2 关闭iptables服务
[root@mn01~]# systemctl stop iptables
[root@mn01~]# systemctl disable iptables

5、禁用selinux
selinux是linux系统下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题

# 编辑 /etc/selinux/config 文件,修改SELINUX的值为disable
# 注意修改完毕之后需要重启linux服务,直接reboot也行
SELINUX=disabled

6、禁用swap分区
swap分区指的是虚拟内存分区,它的作用是物理内存使用完,之后将磁盘空间虚拟成内存来使用,启用swap设备会对系统的性能产生非常负面的影响,因此kubernetes要求每个节点都要禁用swap设备,但是如果因为某些原因确实不能关闭swap分区,就需要在集群安装过程中通过明确的参数进行配置说明

# 编辑分区配置文件/etc/fstab,注释掉swap分区一行
# 注意修改完毕之后需要重启linux服务
vim /etc/fstab
注释掉 /dev/mapper/centos-swap swap
# /dev/mapper/centos-swap swap

7、修改linux的内核参数

# 修改linux的内核采纳数,添加网桥过滤和地址转发功能
# 编辑/etc/sysctl.d/kubernetes.conf文件,添加如下配置:
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1

# 重新加载配置
[root@master ~]# sysctl -p
# 加载网桥过滤模块
[root@master ~]# modprobe br_netfilter
# 查看网桥过滤模块是否加载成功
[root@master ~]# lsmod | grep br_netfilter

8、配置ipvs功能
在Kubernetes中Service有两种带来模型,一种是基于iptables的,一种是基于ipvs的两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块

# 1.安装ipset和ipvsadm
[root@mn01 ~]# yum install ipset ipvsadm -y
# 2.添加需要加载的模块写入脚本文件
[root@mn01~]# cat < /etc/sysconfig/modules/ipvs.modules
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
# 3.为脚本添加执行权限
[root@mn01~]# chmod +x /etc/sysconfig/modules/ipvs.modules
# 4.执行脚本文件
[root@mn01~]# /bin/bash /etc/sysconfig/modules/ipvs.modules
# 5.查看对应的模块是否加载成功
[root@mn01~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4

3、安装docker(所有节点)

# 1、切换镜像源
[root@mn01~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo

# 2、查看当前镜像源中支持的docker版本
[root@mn01~]# yum list docker-ce --showduplicates

# 3、安装特定版本的docker-ce
# 必须制定--setopt=obsoletes=0,否则yum会自动安装更高版本
[root@mn01~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y

# 4、添加一个配置文件
#Docker 在默认情况下使用Vgroup Driver为cgroupfs,而Kubernetes推荐使用systemd来替代cgroupfs
[root@mn01~]# mkdir /etc/docker
[root@mn01~]# cat < /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=systemd"],
"registry-mirrors": ["https://docker.m.daocloud.io","https://docker.1panel.live"]
}
EOF

# 5、启动mn01
[root@master ~]# systemctl restart docker
[root@master ~]# systemctl enable docker

4、安装kubernets组件(所有节点)

# 1、由于kubernetes的镜像在国外,速度比较慢,这里切换成国内的镜像源
# 2、编辑/etc/yum.repos.d/kubernetes.repo,添加下面的配置
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgchech=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
			http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

# 3、安装kubeadm、kubelet和kubectl
[root@master ~]# yum install -y kubelet-1.23.6 kubeadm-1.23.6 kubectl-1.23.6

# 4、配置kubelet的cgroup
#编辑/etc/sysconfig/kubelet, 添加下面的配置
KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"

# 5、设置kubelet开机自启
[root@master ~]# systemctl enable kubelet

5、集群初始化配置(仅在主节点)

1、主节点初始化

kubeadm init --apiserver-advertise-address=192.168.242.130 --image-repository registry.aliyuncs.com/google_containers --kubernetes-version=v1.23.6 --service-cidr=10.96.0.0/12 --pod-network-cidr=10.244.0.0/16

选项说明:
–image-repository:选择用于拉取镜像的镜像仓库(默认为“k8s.gcr.io” )
–kubernetes-version:选择特定的Kubernetes版本(默认为“stable-1”)
–service-cidr:为服务的VIP指定使用的IP地址范围(默认为“10.96.0.0/12”)
–pod-network-cidr:指定Pod网络的IP地址范围。如果设置,则将自动为每个节点分配CIDR。

2、初始化输出内容

Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

Alternatively, if you are the root user, you can run:

  export KUBECONFIG=/etc/kubernetes/admin.conf

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.242.130:6443 --token bzhjh5.0bnoup3cdpvau66z         --discovery-token-ca-cert-hash sha256:15d1cd5698c82f511887e860288d0fde523f310cff8a00586a145f84f7e66f33

当你初始化完成会出现这些内容,这代表你的k8s-master01已经初始化成功
3、创建必要文件,在主节点

[root@mn01~]# mkdir -p $HOME/.kube
[root@mn01~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@mn01~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config

4、下面的操作只需要在node节点上执行即可,加入集群

kubeadm join 192.168.242.130:6443 --token bzhjh5.0bnoup3cdpvau66z         --discovery-token-ca-cert-hash sha256:15d1cd5698c82f511887e860288d0fde523f310cff8a00586a145f84f7e66f33

在master上查看节点信息

[root@mn01 k8s]# kubectl get nodes
NAME   STATUS       ROLES        AGE   VERSION
cn01   NotReady    <none>        22h   v1.23.6
ln0    NotReady    <none>        22h   v1.23.6
mn01   NotReady    <none>        22h   v1.23.6

#节点成功加入到节点,但是STATUS显示为NotReady状态,因为还未部署网络插件,集群之间还无法通信

5、部署calico网络插件,仅在主节点
calico网络插件部署

#下载calico.yaml文件
curl -O https://docs.tigera.io/archive/v3.25/manifests/calico.yaml

#修改CIDR,添加图中内容,该yaml文件中默认CIDR为192.168.0.0/16,需要与初始化时kube-config.yaml中的配置一致
- name: CALICO_IPV4POOL_CIDR
  value: "10.244.0.0/16"

#拉取镜像修改,因为calico.io是国外地址拉取较慢,直接去掉
sed -i 's#docker.io/##g' calico.yaml

[root@k8s-master01 ~]# grep image calico.yaml 
          image: calico/cni:v3.25.0
          imagePullPolicy: IfNotPresent
          image: calico/cni:v3.25.0
          imagePullPolicy: IfNotPresent
          image: calico/node:v3.25.0
          imagePullPolicy: IfNotPresent
          image: calico/node:v3.25.0
          imagePullPolicy: IfNotPresent
          image: calico/kube-controllers:v3.25.0
          imagePullPolicy: IfNotPresent

#拉取calico镜像,所有节点都要执行
#注意这里踩了个坑,因为node v3.25.0下载不下来(docker pull下载不下来),所以我这里csdn下载了calico-image的镜像,然后所有节点都docker load -i calico-image.tar,给它手动load进来了。
docker pull calico/cni:v3.25.0
docker pull calico/node:v3.25.0
docker pull calico/kube-controllers:v3.25.0

#部署
kubectl apply -f calico.yaml

#查看集群状态
[root@k8s-master01 ~]# kubectl get nodes
NAME           STATUS   ROLES                  AGE    VERSION
k8s-master01   Ready    control-plane,master   106m   v1.23.6
k8s-node01     Ready    <none>                 105m   v1.23.6
k8s-node02     Ready    <none>                 85m    v1.23.6

#查看kube-system中的pod运行情况
[root@k8s-master01 ~]# kubectl get pods -n kube-system
NAME                                     READY   STATUS    RESTARTS      AGE
calico-kube-controllers-cd8566cf-cw5bj   1/1     Running   4 (58m ago)   84m
calico-node-pfpc4                        1/1     Running   4 (58m ago)   90m
calico-node-qf8kn                        1/1     Running   8 (58m ago)   87m
calico-node-sbn8m                        1/1     Running   4 (58m ago)   90m
coredns-6d8c4cb4d-v9895                  1/1     Running   4 (58m ago)   84m
coredns-6d8c4cb4d-zfzrd                  1/1     Running   4 (58m ago)   84m
etcd-k8s-master01                        1/1     Running   4 (58m ago)   107m
kube-apiserver-k8s-master01              1/1     Running   4 (58m ago)   107m
kube-controller-manager-k8s-master01     1/1     Running   4 (58m ago)   107m
kube-proxy-fv6xc                         1/1     Running   4 (58m ago)   87m
kube-proxy-kqhdh                         1/1     Running   4 (58m ago)   107m
kube-proxy-rn6cc                         1/1     Running   4 (58m ago)   106m
kube-scheduler-k8s-master01              1/1     Running   4 (58m ago)   107m

##部署成功!!!

你可能感兴趣的:(kubernetes,容器,云原生)