主机名 | IP地址 | 系统版本 | CPU | 内存 |
---|---|---|---|---|
mn01 | 192.168.242.130 | redhat 7.9 | 2C | 4GB |
ln0 | 192.168.242.131 | redhat 7.9 | 2C | 4GB |
cn01 | 192.168.242.129 | redhat 7.9 | 2C | 4GB |
1、安装所需软件
yum install vim net-tools wget lsof ipset ipvsadm iproute-tc -y
2、主机名解析
为了方便集群节点间的直接调用,在这个配置一下主机名解析,企业中推荐使用内部DNS服务器
# 添加如下内容
192.168.242.131 ln0
192.168.242.130 mn01
192.168.242.129 cn01
3、时间同步
kubernetes要求集群中的节点时间必须精确一直,这里使用chronyd服务从网络同步时间
企业中建议配置内部的会见同步服务器
# 启动chronyd服务
[root@mn01~]# systemctl start chronyd
[root@mn01~]# systemctl enable chronyd
[root@mn01~]# date
4、禁用iptable和firewalld服务(防火墙)
kubernetes和docker 在运行的中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则
# 1 关闭firewalld服务
[root@mn01~]# systemctl stop firewalld
[root@mn01~]# systemctl disable firewalld
# 2 关闭iptables服务
[root@mn01~]# systemctl stop iptables
[root@mn01~]# systemctl disable iptables
5、禁用selinux
selinux是linux系统下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题
# 编辑 /etc/selinux/config 文件,修改SELINUX的值为disable
# 注意修改完毕之后需要重启linux服务,直接reboot也行
SELINUX=disabled
6、禁用swap分区
swap分区指的是虚拟内存分区,它的作用是物理内存使用完,之后将磁盘空间虚拟成内存来使用,启用swap设备会对系统的性能产生非常负面的影响,因此kubernetes要求每个节点都要禁用swap设备,但是如果因为某些原因确实不能关闭swap分区,就需要在集群安装过程中通过明确的参数进行配置说明
# 编辑分区配置文件/etc/fstab,注释掉swap分区一行
# 注意修改完毕之后需要重启linux服务
vim /etc/fstab
注释掉 /dev/mapper/centos-swap swap
# /dev/mapper/centos-swap swap
7、修改linux的内核参数
# 修改linux的内核采纳数,添加网桥过滤和地址转发功能
# 编辑/etc/sysctl.d/kubernetes.conf文件,添加如下配置:
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
# 重新加载配置
[root@master ~]# sysctl -p
# 加载网桥过滤模块
[root@master ~]# modprobe br_netfilter
# 查看网桥过滤模块是否加载成功
[root@master ~]# lsmod | grep br_netfilter
8、配置ipvs功能
在Kubernetes中Service有两种带来模型,一种是基于iptables的,一种是基于ipvs的两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块
# 1.安装ipset和ipvsadm
[root@mn01 ~]# yum install ipset ipvsadm -y
# 2.添加需要加载的模块写入脚本文件
[root@mn01~]# cat < /etc/sysconfig/modules/ipvs.modules
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
# 3.为脚本添加执行权限
[root@mn01~]# chmod +x /etc/sysconfig/modules/ipvs.modules
# 4.执行脚本文件
[root@mn01~]# /bin/bash /etc/sysconfig/modules/ipvs.modules
# 5.查看对应的模块是否加载成功
[root@mn01~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4
# 1、切换镜像源
[root@mn01~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
# 2、查看当前镜像源中支持的docker版本
[root@mn01~]# yum list docker-ce --showduplicates
# 3、安装特定版本的docker-ce
# 必须制定--setopt=obsoletes=0,否则yum会自动安装更高版本
[root@mn01~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y
# 4、添加一个配置文件
#Docker 在默认情况下使用Vgroup Driver为cgroupfs,而Kubernetes推荐使用systemd来替代cgroupfs
[root@mn01~]# mkdir /etc/docker
[root@mn01~]# cat < /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=systemd"],
"registry-mirrors": ["https://docker.m.daocloud.io","https://docker.1panel.live"]
}
EOF
# 5、启动mn01
[root@master ~]# systemctl restart docker
[root@master ~]# systemctl enable docker
# 1、由于kubernetes的镜像在国外,速度比较慢,这里切换成国内的镜像源
# 2、编辑/etc/yum.repos.d/kubernetes.repo,添加下面的配置
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgchech=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
# 3、安装kubeadm、kubelet和kubectl
[root@master ~]# yum install -y kubelet-1.23.6 kubeadm-1.23.6 kubectl-1.23.6
# 4、配置kubelet的cgroup
#编辑/etc/sysconfig/kubelet, 添加下面的配置
KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"
# 5、设置kubelet开机自启
[root@master ~]# systemctl enable kubelet
1、主节点初始化
kubeadm init --apiserver-advertise-address=192.168.242.130 --image-repository registry.aliyuncs.com/google_containers --kubernetes-version=v1.23.6 --service-cidr=10.96.0.0/12 --pod-network-cidr=10.244.0.0/16
选项说明:
–image-repository:选择用于拉取镜像的镜像仓库(默认为“k8s.gcr.io” )
–kubernetes-version:选择特定的Kubernetes版本(默认为“stable-1”)
–service-cidr:为服务的VIP指定使用的IP地址范围(默认为“10.96.0.0/12”)
–pod-network-cidr:指定Pod网络的IP地址范围。如果设置,则将自动为每个节点分配CIDR。
2、初始化输出内容
Your Kubernetes control-plane has initialized successfully!
To start using your cluster, you need to run the following as a regular user:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
Alternatively, if you are the root user, you can run:
export KUBECONFIG=/etc/kubernetes/admin.conf
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
https://kubernetes.io/docs/concepts/cluster-administration/addons/
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.242.130:6443 --token bzhjh5.0bnoup3cdpvau66z --discovery-token-ca-cert-hash sha256:15d1cd5698c82f511887e860288d0fde523f310cff8a00586a145f84f7e66f33
当你初始化完成会出现这些内容,这代表你的k8s-master01已经初始化成功
3、创建必要文件,在主节点
[root@mn01~]# mkdir -p $HOME/.kube
[root@mn01~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@mn01~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
4、下面的操作只需要在node节点上执行即可,加入集群
kubeadm join 192.168.242.130:6443 --token bzhjh5.0bnoup3cdpvau66z --discovery-token-ca-cert-hash sha256:15d1cd5698c82f511887e860288d0fde523f310cff8a00586a145f84f7e66f33
在master上查看节点信息
[root@mn01 k8s]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
cn01 NotReady <none> 22h v1.23.6
ln0 NotReady <none> 22h v1.23.6
mn01 NotReady <none> 22h v1.23.6
#节点成功加入到节点,但是STATUS显示为NotReady状态,因为还未部署网络插件,集群之间还无法通信
5、部署calico网络插件,仅在主节点
calico网络插件部署
#下载calico.yaml文件
curl -O https://docs.tigera.io/archive/v3.25/manifests/calico.yaml
#修改CIDR,添加图中内容,该yaml文件中默认CIDR为192.168.0.0/16,需要与初始化时kube-config.yaml中的配置一致
- name: CALICO_IPV4POOL_CIDR
value: "10.244.0.0/16"
#拉取镜像修改,因为calico.io是国外地址拉取较慢,直接去掉
sed -i 's#docker.io/##g' calico.yaml
[root@k8s-master01 ~]# grep image calico.yaml
image: calico/cni:v3.25.0
imagePullPolicy: IfNotPresent
image: calico/cni:v3.25.0
imagePullPolicy: IfNotPresent
image: calico/node:v3.25.0
imagePullPolicy: IfNotPresent
image: calico/node:v3.25.0
imagePullPolicy: IfNotPresent
image: calico/kube-controllers:v3.25.0
imagePullPolicy: IfNotPresent
#拉取calico镜像,所有节点都要执行
#注意这里踩了个坑,因为node v3.25.0下载不下来(docker pull下载不下来),所以我这里csdn下载了calico-image的镜像,然后所有节点都docker load -i calico-image.tar,给它手动load进来了。
docker pull calico/cni:v3.25.0
docker pull calico/node:v3.25.0
docker pull calico/kube-controllers:v3.25.0
#部署
kubectl apply -f calico.yaml
#查看集群状态
[root@k8s-master01 ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-master01 Ready control-plane,master 106m v1.23.6
k8s-node01 Ready <none> 105m v1.23.6
k8s-node02 Ready <none> 85m v1.23.6
#查看kube-system中的pod运行情况
[root@k8s-master01 ~]# kubectl get pods -n kube-system
NAME READY STATUS RESTARTS AGE
calico-kube-controllers-cd8566cf-cw5bj 1/1 Running 4 (58m ago) 84m
calico-node-pfpc4 1/1 Running 4 (58m ago) 90m
calico-node-qf8kn 1/1 Running 8 (58m ago) 87m
calico-node-sbn8m 1/1 Running 4 (58m ago) 90m
coredns-6d8c4cb4d-v9895 1/1 Running 4 (58m ago) 84m
coredns-6d8c4cb4d-zfzrd 1/1 Running 4 (58m ago) 84m
etcd-k8s-master01 1/1 Running 4 (58m ago) 107m
kube-apiserver-k8s-master01 1/1 Running 4 (58m ago) 107m
kube-controller-manager-k8s-master01 1/1 Running 4 (58m ago) 107m
kube-proxy-fv6xc 1/1 Running 4 (58m ago) 87m
kube-proxy-kqhdh 1/1 Running 4 (58m ago) 107m
kube-proxy-rn6cc 1/1 Running 4 (58m ago) 106m
kube-scheduler-k8s-master01 1/1 Running 4 (58m ago) 107m
##部署成功!!!