Kubernetes单主集群的部署(一)

目录

 

一、k8s单主架构集群的部署 

1.操作系统初始化配置

2.部署 etcd 集群 

3.部署docker引擎

4.部署 Master 组件

5.部署 Worker Node 组件

6.部署 CNI 网络组件(使用 flannel)


 

一、k8s单主架构集群的部署 

Kubernetes单主集群的部署(一)_第1张图片

k8s集群master01:192.168.116.10
k8s集群master02:192.168.116.20(第二部分高可用架构会加入)

k8s集群node01:192.168.116.30
k8s集群node02:192.168.116.40

etcd集群节点1:192.168.116.10(etcd集群原则上单独部署,此实验为方便部署在节点上)
etcd集群节点2:192.168.116.30
etcd集群节点3:192.168.116.40

负载均衡nginx+keepalive01(master):192.168.116.50
负载均衡nginx+keepalive02(backup):192.168.116.60

1.操作系统初始化配置

#关闭防火墙
systemctl disable --now firewalld
iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X

#关闭selinux
setenforce 0
sed -i 's/enforcing/disabled/' /etc/selinux/config

#关闭swap
swapoff -a
sed -ri 's/.*swap.*/#&/' /etc/fstab 

#根据规划设置主机名
hostnamectl set-hostname master01
hostnamectl set-hostname node01
hostnamectl set-hostname node02
su

#添加主机名映射
vim /etc/hosts
#添加
192.168.116.10 master01
192.168.116.30 node01
192.168.116.40 node02

vim /etc/sysctl.d/k8s.conf
#开启网桥模式,可将网桥的流量传递给iptables链
net.bridge.bridge-nf-call-iptables=1
net.bridge.bridge-nf-call-ip6tables=1
#开启路由转发
net.ipv4.ip_forward=1
#关闭ipv6(可选)
#net.ipv6.conf.all.disable_ipv6=1

#加载系统配置
sysctl --system

#时间同步(可以做计划任务)
yum install ntpdate -y
ntpdate ntp.aliyun.com
crontab -e
*/10 * * * * /usr/sbin/ntpdate ntp.aliyun.com &> /dev/null

2.部署 etcd 集群 

在 master01 节点上操作 

先准备签发证书的环境

CFSSL是CloudFlare公司开源的一款PKI/TLS工具。CFSSL包含一个命令行工具和一个用于签名、验证和捆绑TLS证书的HTTPAPI服务。使用Go语言编写。

CFSSIL使用配置文件生成证书,因此自签之前,需要生成它识别的json格式的配置文件,CFSSL提供了方便的命令行生成配置文件。

CFSSL用来为etcd提供TLS证书,它支持签三种类型的证书:

client 证书:服务端连接客户端时携带的证书,用于客户端验证服务端身份,如kube-apiserver 访问 etcd;
server证书:客户端连接服务端时携带的证书,用于服务端验证客户端身份,如etcd对外提供服务;
peer证书:相互之间连接时使用的证书,如etcd节点之间进行验证和通信。

这里为了方便全部都使用同一套证书认证,生产环境中一般不这样使用。

#准备cfssl证书生成工具
wget https://pkg.cfssl.org/R1.2/cfssl_linux-amd64 -O /usr/local/bin/cfssl
wget https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64 -O /usr/local/bin/cfssljson
wget https://pkg.cfssl.org/R1.2/cfssl-certinfo_linux-amd64 -O /usr/local/bin/cfssl-certinfo

chmod +x /usr/local/bin/cfssl*

cfssl:证书签发的工具命令
cfssljson:将cfssl生成的证书(json格式)变为文件承载式证书

cfssl-certinfo:验证证书的信息


cfssl-certinfo -cert <证书名称>        #可以使用此命令查看证书的信息

编写etcd-cert.sh用于生成CA证书、etcd 服务器证书以及私钥

mkdir -p /opt/k8s/etcd-cert
cd /opt/k8s/etcd-cert
vim /opt/k8s/etcd-cert/etcd-cert.sh
#!/bin/bash
#配置证书生成策略,让 CA 软件知道颁发有什么功能的证书,生成用来签发其他组件证书的根证书
cat > ca-config.json < ca-csr.json <:使用 CSRJSON 文件生成生成新的证书和私钥。如果不添加管道符号,会直接把所有证书内容输出到屏幕。
#注意:CSRJSON 文件用的是相对路径,所以 cfssl 的时候需要 csr 文件的路径下执行,也可以指定为绝对路径。
#cfssljson 将 cfssl 生成的证书(json格式)变为文件承载式证书,-bare 用于命名生成的证书文件。


#-----------------------
#生成 etcd 服务器证书和私钥
cat > server-csr.json <

编写etcd服务脚本,添加集群配置

vim /opt/k8s/etcd.sh
#!/bin/bash
#example: ./etcd.sh etcd01 192.168.80.10 etcd02=https://192.168.80.11:2380,etcd03=https://192.168.80.12:2380

#创建etcd配置文件/opt/etcd/cfg/etcd
ETCD_NAME=$1
ETCD_IP=$2
ETCD_CLUSTER=$3

WORK_DIR=/opt/etcd

cat > $WORK_DIR/cfg/etcd  < /usr/lib/systemd/system/etcd.service <

安装etcd服务,并启动集群

#上传 etcd-v3.4.9-linux-amd64.tar.gz 到 /opt/k8s 目录中,并尝试启动服务
cd /opt/k8s/
tar zxvf etcd-v3.4.9-linux-amd64.tar.gz
mkdir -p /opt/etcd/{cfg,bin,ssl}

#etcdctl管理文件,etcd服务文件
cd /opt/k8s/etcd-v3.4.9-linux-amd64/
mv etcd etcdctl /opt/etcd/bin/
cp /opt/k8s/etcd-cert/*.pem /opt/etcd/ssl/

#此脚本可以启动本地etcd服务,添加集群配置(第一次启动会卡住,是因为需要其他节点etcd服务加入)
cd /opt/k8s/
./etcd.sh etcd01 192.168.116.10 etcd02=https://192.168.116.30:2380,etcd03=https://192.168.116.40:2380

#复制服务脚本到其他etcd节点,并修改配置(见下图)
scp -r /opt/etcd/ [email protected]:/opt/
scp -r /opt/etcd/ [email protected]:/opt/
scp /usr/lib/systemd/system/etcd.service [email protected]:/usr/lib/systemd/system/
scp /usr/lib/systemd/system/etcd.service [email protected]:/usr/lib/systemd/system/

#修改完后分别启动服务
systemctl start etcd

#然后在主etcd节点再次执行
cd /opt/k8s/
./etcd.sh etcd01 192.168.116.10 etcd02=https://192.168.116.30:2380,etcd03=https://192.168.116.40:2380

Kubernetes单主集群的部署(一)_第2张图片

执行完后可以使用以下命令查看etcd集群状态(全为true则集群无误)

#使用 health 是查看健康状态;使用 status 是查看所有状态信息

ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://192.168.116.10:2379,https://192.168.116.30:2379,https://192.168.116.40:2379" endpoint health --write-out=table 

--cert:识别HTTPS端使用SSL证书文件

--cacert:使用此CA证书验证启用https的服务器的证书

--key:使用此SSL密钥文件标识HTTPS客户端

--endpoints:集群中以逗号分隔的机器地址列表cluster-health: 检查etcd集群的运行状况

--write-out=table 或 -wtable:以表格形式输出

Kubernetes单主集群的部署(一)_第3张图片

查看etcd集群成员信息

ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://192.168.116.10:2379,https://192.168.116.30:2379,https://192.168.116.40:2379" member list --write-out=table

Kubernetes单主集群的部署(一)_第4张图片

补充 etcd 备份和还原方式

注:备份时 endpoint 只需要指定etcd中的一个节点

备份

ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://192.168.116.10:2379" snapshot save 备份文件路径

查看

ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://192.168.116.10:2379" snapshot status 备份文件路径 -wtable

恢复

ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://192.168.116.10:2379" snapshot restore 备份文件路径

3.部署docker引擎

所有 node 节点部署docker引擎

yum install -y yum-utils device-mapper-persistent-data lvm2 
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo 
yum install -y docker-ce docker-ce-cli containerd.io

systemctl start docker.service
systemctl enable docker.service 

4.部署 Master 组件

编写master各组件认证的脚本

mkdir /opt/k8s/k8s-cert
vim k8s-cert.sh
#!/bin/bash
#配置证书生成策略,让 CA 软件知道颁发有什么功能的证书,生成用来签发其他组件证书的根证书
cat > ca-config.json < ca-csr.json < apiserver-csr.json < admin-csr.json < kube-proxy-csr.json <

安装k8s服务,准备master需要的工具

#上传 kubernetes-server-linux-amd64.tar.gz 到 /opt/k8s/ 目录中,解压 kubernetes 压缩包
cd /opt/k8s/
tar zxvf kubernetes-server-linux-amd64.tar.gz

#将master的组件和命令工具存放到/opt/kubernetes/bin/,做软连接能被系统识别
cd /opt/k8s/kubernetes/server/bin
cp kube-apiserver kubectl kube-controller-manager kube-scheduler /opt/kubernetes/bin/
ln -s /opt/kubernetes/bin/* /usr/local/bin/

#上传master.zip到/opt/k8s目录并解压
cd /opt/k8s/
unzip master.zip -d master/
cd master/
chmod +x *.sh

创建 bootstrap token 认证文件,apiserver 启动时会调用,然后就相当于在集群内创建了一个这个用户,接下来就可以用 RBAC 给他授权

#创建 bootstrap token 认证文件,apiserver 启动时会调用,然后就相当于在集群内创建了一个这个用户,接下来就可以用 RBAC 给他授权
cd /opt/kubernetes
vim token.sh
#!/bin/bash
#获取随机数前16个字节内容,以十六进制格式输出,并删除其中空格
BOOTSTRAP_TOKEN=$(head -c 16 /dev/urandom | od -An -t x | tr -d ' ')
#生成 token.csv 文件,按照 Token序列号,用户名,UID,用户组 的格式生成
cat > /opt/kubernetes/cfg/token.csv <

#执行apiserver脚本 后面跟master的ip 和 etcd集群的ip
./apiserver.sh 192.168.116.10 https://192.168.116.10:2379,https://192.168.116.30:2379,https://192.168.116.40:2379

#再执行另外三个脚本
./controller-manager.sh
./scheduler.sh
./admin

检查master组件和etcd集群状态

Kubernetes单主集群的部署(一)_第5张图片

5.部署 Worker Node 组件

在所有 node 节点上操作

#创建kubernetes工作目录
mkdir -p /opt/kubernetes/{bin,cfg,ssl,logs}

#上传 node.zip 到 /opt 目录中,解压 node.zip 压缩包,获得kubelet.sh、proxy.sh
cd /opt/
unzip node.zip
chmod +x kubelet.sh proxy.sh

在 master01 节点上操作

#把 kubelet、kube-proxy 拷贝到 node 节点
cd /opt/k8s/kubernetes/server/bin
scp kubelet kube-proxy [email protected]:/opt/kubernetes/bin/
scp kubelet kube-proxy [email protected]:/opt/kubernetes/bin/

#上传 kubeconfig.sh 文件到 /opt/k8s/kubeconfig 目录中,生成 kubeconfig 的配置文件
mkdir /opt/k8s/kubeconfig

cd /opt/k8s/kubeconfig
chmod +x kubeconfig.sh
./kubeconfig.sh 192.168.116.10 /opt/k8s/k8s-cert/

scp bootstrap.kubeconfig kube-proxy.kubeconfig [email protected]:/opt/kubernetes/cfg/
scp bootstrap.kubeconfig kube-proxy.kubeconfig [email protected]:/opt/kubernetes/cfg/

#RBAC授权,使用户 kubelet-bootstrap 能够有权限发起 CSR 请求
kubectl create clusterrolebinding kubelet-bootstrap --clusterrole=system:node-bootstrapper --user=kubelet-bootstrap

kubelet采用TLS Bootstrapping 机制,自动完成到kube-apiserver的注册,在node节点量较大或者后期自动扩容时非常有用。

Master apiserver 启用TLS 认证后,node 节点kubelet 组件想要加入集群,必须使用CA签发的有效证书才能与apiserver 通信,当node节点很多时,签署证书是一件很繁琐的事情。因此Kubernetes引入了TLS bootstraping 机制来自动颁发客户端证书,kubelet会以一个低权限用户自动向 apiserver申请证书,kubelet的证书由apiserver 动态签署。

kubelet首次启动通过加载bootstrap.kubeconfig 中的用户Token和apiserver CA证书发起首次CSR请求,这个Token 被预先内置在apiserver节点的token.csv中,其身份为kubelet-bootstrap用户和system:kubelet-bootstrap 用户组;想要首次CSR请求能成功(即不会被 apiserver 401拒绝),则需要先创建一个ClusterRoleBinding,将kubelet-bootstrap 用户和system:node-bootstrapper 内置ClusterRole 绑定(通过 kubectl get clusterroles可查询),使其能够发起CSR认证请求。

TLS bootstrapping 时的证书实际是由kube-controller-manager组件来签署的,也就是说证书有效期是kube-controller-manager组件控制的:kube-controller-manager组件提供了一个–experimental-cluster-signing-duration 参数来设置签署的证书有效时间:默认为8760h0m0s,将其改87600h0m0s,即10年后再进行TLS bootstrapping 签者证书即可。

也就是说kubelet 首次访问API Server时,是使用token做认证,通过后,Controller Manager会为kubelet生成一个证书,以后的访问都是用证书做认证了。

在两个 node 节点上操作

#启动 kubelet 服务
cd /opt/
./kubelet.sh 192.168.116.30

在 master01 节点上操作,通过 CSR 请求

#检查到 node01 节点的 kubelet 发起的 CSR 请求,Pending表示等待集群给该节点签发证书
kubectl get csr

kubectl certificate approve 请求名        #通过 CSR 请求

#查看节点,由于网络插件还没有部署,节点会没有准备就绪 NotReady
kubectl get node

在两个 node 节点上操作 

#加载 ip_vs 模块
for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modinfo -F filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done

#启动proxy服务
cd /opt/
./proxy.sh 192.168.116.30

Kubernetes单主集群的部署(一)_第6张图片

6.部署 CNI 网络组件(使用 flannel)

在 node01 节点上操作

#上传 cni-plugins-linux-amd64-v0.8.6.tgz 和 flannel.tar 到 /opt 目录中
cd /opt/
docker load -i flannel.tar

mkdir /opt/cni/bin
tar zxvf cni-plugins-linux-amd64-v0.8.6.tgz -C /opt/cni/bin

在 master01 节点上操作

#上传 kube-flannel.yml 文件到 /opt/k8s 目录中,部署 CNI 网络
cd /opt/k8s
kubectl apply -f kube-flannel.yml 

kubectl get pods -n kube-system        #查看pods指定命名空间

kubectl get nodes        #查看节点状态(Ready即成功)

你可能感兴趣的:(k8s,分布式,docker,linux,集群)