Kubernetes(k8s)集群部署----->超详细

Kubernetes(k8s)集群部署----->超详细

  • 一、资源准备
  • 二、安装准备
    • 2.1 主机环境设置
      • 2.1.1 关闭操作系统防火墙、selinux
      • 2.1.2 关闭swap交换分区
      • 2.1.3 允许iptables检测桥接流量(可选)
    • 2.2 安装Docker环境
    • 2.3 安装Kubeadm、Kubelet和Kubectl
      • 2.3.1 配置k8s的yum源(阿里云的源)
      • 2.3.2 安装及版本检查
      • 2.3.3 设置kubelet自启动
      • 2.3.4 卸载
  • 三、Kubernetes集群所需的镜像拉取
    • 3.1 生成一个默认 kubeadm 初始化配置文件
    • 3.2 列出当前Kubernetes集群所需的所有镜像列表及其版本信息
    • 3.3 拉取所k8s需要的容器镜像
    • 3.4 镜像检查
  • 四、初始化Master节点
    • 4.1 初始化报错解决
    • 4.2 再次执行初始化报错解决
    • 4.3 初始化完成,root用户执行命令
  • 五、安装网络插件Calico
  • 六、Worker节点部署
  • 七、集群检查
  • 八、集群测试--集群自我修复
  • 九、 部署Dashboard
  • 十、集群的加入令牌过期--处理


The Begin点点关注,收藏不迷路

Kubernetes(简称k8s)是一个开源的容器编排平台,可以帮助开发人员和运维团队更轻松地管理容器化应用程序。本文将详细介绍如何进行k8s集群的部署,以帮助读者快速搭建一个高可用、可伸缩的k8s集群。

一、资源准备

1、操作系统:至少三台物理机或虚拟机,具有至少2核4GB内存的配置,操作系统为Linux。

主机名 IP
k8s-01 192.168.234.21
k8s-02 192.168.234.22
k8s-03 192.168.234.23

2、主机名设置:确保每台服务器都有唯一的主机名,并且主机名能够通过DNS解析进行互相访问。

Kubernetes(k8s)集群部署----->超详细_第1张图片

3、网络设置:确保每台服务器之间可以互相通信,建议使用静态IP地址,并关闭防火墙或者开放必要的端口。
Kubernetes(k8s)集群部署----->超详细_第2张图片
Kubernetes(k8s)集群部署----->超详细_第3张图片

4、安装Docker:在每台服务器上安装Docker引擎。

二、安装准备

2.1 主机环境设置

在每台服务器上执行设置。

2.1.1 关闭操作系统防火墙、selinux

1、修改/etc/selinux/config文件中的SELINUX值为disabled

[root@k8s-01 ~]# vi /etc/selinux/config

2、修改SELINUX的值为disabled

SELINUX=disabled
或者使用命令设置:

sudo sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config

Kubernetes(k8s)集群部署----->超详细_第4张图片
3、检查防火墙是否关闭

[root@k8s-01 ~]# systemctl status firewalld

若防火墙状态显示为active (running),则表示防火墙未关闭
若防火墙状态显示为inactive (dead),则无需再关闭防火墙

4、关闭防火墙并禁止开机重启

[root@k8s-01 ~]# systemctl disable firewalld.service
[root@k8s-01 ~]# systemctl stop firewalld.service

2.1.2 关闭swap交换分区

关闭swap交换内存是为了保障数据库的访问性能,避免把数据库的缓冲区内存淘汰到磁盘上。 如果服务器内存比较小,内存过载时,可打开swap交换内存保障正常运行。

###永久关闭命令
[root@k8s-01 ~]# swapoff -a

sed -ri 's/.*swap.*/#&/' /etc/fstab
 
 ##目的是将swap那行注释,如下图所示:

Kubernetes(k8s)集群部署----->超详细_第5张图片

###开启命令(不执行)
[root@k8s-01 ~]# swapon -a

2.1.3 允许iptables检测桥接流量(可选)

cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
br_netfilter
EOF

cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF


# 加载所有配置
sudo sysctl --system

Kubernetes(k8s)集群部署----->超详细_第6张图片

2.2 安装Docker环境

安装Docker:在每台服务器上安装Docker,Kubernetes依赖于Docker来运行容器。

docker 安装可参考前面的文章:Docker基础入门:Docker起源、组成、安装、及常用命令

[root@k8s-01 ~]# docker -v    #查看是否安装成功
Docker version 20.10.7, build f0df350
[root@k8s-01 ~]#

2.3 安装Kubeadm、Kubelet和Kubectl

在每台服务器上安装Kubeadm、Kubelet和Kubectl,这些工具将帮助我们部署和管理Kubernetes集群。

Kubeadm、Kubelet和Kubectl是Kubernetes中的三个核心组件。

1、Kubeadm:Kubeadm是用于初始化和设置Kubernetes集群的工具。它负责启动集群的控制平面组件(如API服务器、控制器管理器和调度器)以及节点上的网络插件(如Flannel、Calico等)。Kubeadm还处理证书和安全性设置,并提供了一种简化的方式来添加或删除节点。

2、Kubelet:Kubelet是每个节点上运行的主要代理程序,负责管理该节点上的容器和Pod。它与控制平面通信,接收Pod的调度信息并确保它们在节点上正确运行。Kubelet还监控容器的状态,并在需要时重启失败的容器。

3、Kubectl:Kubectl是Kubernetes的命令行工具,用于与Kubernetes集群进行交互。它允许用户创建、管理和监视Kubernetes对象,如Pod、Service、Deployment等。Kubectl可以通过命令行界面执行各种操作,例如创建和删除资源、查看集群状态、日志记录和调试。

这三个组件共同协作,使得用户能够轻松地部署、管理和监控Kubernetes集群,并与集群进行交互。

2.3.1 配置k8s的yum源(阿里云的源)

在每台服务器上执行:

cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
        http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

Kubernetes(k8s)集群部署----->超详细_第7张图片

2.3.2 安装及版本检查

执行以下命令开始安装。

## 指定版本安装
sudo yum install -y kubelet-1.24.1 kubeadm-1.24.1 kubectl-1.24.1 --disableexcludes=kubernetes
## 或 yum install 安装最新版
sudo yum install kubelet kubeadm kubectl

Kubernetes(k8s)集群部署----->超详细_第8张图片

## 版本检查
kubeadm version

在这里插入图片描述

2.3.3 设置kubelet自启动

## 所有服务器执行
systemctl enable --now kubelet

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

##kubelet状态查看
systemctl status kubelet

Kubernetes(k8s)集群部署----->超详细_第9张图片

## 获取有关kubeadm软件包的详细信息的命令
yum info kubeadm

Kubernetes(k8s)集群部署----->超详细_第10张图片

2.3.4 卸载

sudo apt-get remove kubelet kubectl kubeadm

三、Kubernetes集群所需的镜像拉取

3.1 生成一个默认 kubeadm 初始化配置文件

kubeadm config print init-defaults >kubeadm-init.yaml

## 将k8s.gcr.io 修改为阿里云地址 :registry.aliyuncs.com/google_containers

Kubernetes(k8s)集群部署----->超详细_第11张图片

3.2 列出当前Kubernetes集群所需的所有镜像列表及其版本信息

kubeadm config images list


[root@k8s-01 ~]#  kubeadm config images list
I1213 18:44:19.052543   11505 version.go:255] remote version is much newer: v1.28.4; falling back to: stable-1.24
k8s.gcr.io/kube-apiserver:v1.24.17
k8s.gcr.io/kube-controller-manager:v1.24.17
k8s.gcr.io/kube-scheduler:v1.24.17
k8s.gcr.io/kube-proxy:v1.24.17
k8s.gcr.io/pause:3.7
k8s.gcr.io/etcd:3.5.3-0
k8s.gcr.io/coredns/coredns:v1.8.6
[root@k8s-01 ~]#

Kubernetes(k8s)集群部署----->超详细_第12张图片

3.3 拉取所k8s需要的容器镜像

## 单条批量执行
docker pull  registry.aliyuncs.com/google_containers/kube-apiserver:v1.24.17
docker pull  registry.aliyuncs.com/google_containers/kube-controller-manager:v1.24.17
docker pull  registry.aliyuncs.com/google_containers/kube-scheduler:v1.24.17
docker pull  registry.aliyuncs.com/google_containers/kube-proxy:v1.24.17
docker pull  registry.aliyuncs.com/google_containers/pause:3.7
docker pull  registry.aliyuncs.com/google_containers/etcd:3.5.3-0
docker pull  registry.aliyuncs.com/google_containers/coredns:v1.8.6
## 或者使用脚本执行批量拉取

sudo tee ./images.sh <<-'EOF'
#!/bin/bash
images=(
kube-apiserver:v1.24.17
kube-controller-manager:v1.24.17
kube-scheduler:v1.24.17
kube-proxy:v1.24.17
pause:3.7
etcd:3.5.3-0
coredns:v1.8.6
)
for imageName in ${images[@]} ; do
    docker pull registry.aliyuncs.com/google_containers/$imageName
done
EOF

Kubernetes(k8s)集群部署----->超详细_第13张图片

## Shell脚本命令,用于给当前目录下的images.sh文件添加执行权限,并执行该文件。
chmod +x ./images.sh && ./images.sh

3.4 镜像检查

docker images

Kubernetes(k8s)集群部署----->超详细_第14张图片

四、初始化Master节点

初始化Master节点:使用Kubeadm初始化Master节点,该命令将自动完成Kubernetes的初始化配置。

kubeadm init \
  --apiserver-advertise-address=192.168.234.21 \
  --control-plane-endpoint=k8s-01 \
  --image-repository registry.aliyuncs.com/google_containers \
  --kubernetes-version v1.24.1 \
  --service-cidr=10.11.0.0/16 \
  --pod-network-cidr=172.30.0.0/16
具体的参数解释如下:

--apiserver-advertise-address=192.168.0.113:指定API服务器的广播地址,即集群内其他节点访问API服务器的地址。
--image-repository registry.aliyuncs.com/google_containers:指定所使用的镜像仓库地址,这里使用了阿里云的镜像仓库地址。
--kubernetes-version v1.22.1:指定初始化集群时使用的Kubernetes版本。
--service-cidr=10.11.0.0/16:指定Service的IP地址段,Service是Kubernetes中用于提供服务发现和负载均衡的组件。
--pod-network-cidr=172.30.0.0/16:指定Pod的IP地址段,Pod是Kubernetes中最小的调度单位。

4.1 初始化报错解决

报错1:

[root@k8s-01 ~]# kubeadm init \
>   --apiserver-advertise-address=192.168.234.21 \
>   --control-plane-endpoint=k8s-01 \
>   --image-repository registry.aliyuncs.com/google_containers \
>   --kubernetes-version v1.24.1 \
>   --service-cidr=10.11.0.0/16 \
>   --pod-network-cidr=172.30.0.0/16
[init] Using Kubernetes version: v1.24.1
[preflight] Running pre-flight checks
error execution phase preflight: [preflight] Some fatal errors occurred:
        [ERROR CRI]: container runtime is not running: output: time="2023-12-13T20:40:14+08:00" level=fatal msg="validate service connection: CRI v1 runtime API is not implemented for endpoint \"unix:///var/run/containerd/containerd.sock\": rpc error: code = Unimplemented desc = unknown service runtime.v1.RuntimeService"
, error: exit status 1
[preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...`
To see the stack trace of this error execute with --v=5 or higher
[root@k8s-01 ~]# 

解决:

注意:kubernetes 1.24+版本之后,docker必须要加装cir-docker。

cir-docker下载链接: https://pan.baidu.com/s/1ZCmY07McMdicB-bdQvnSeA
提取码: ivax

1、上传安装cir-docker
[root@k8s-01 ~]# ll
total 12952
-rw-------. 1 root root     1419 Dec 12 16:09 anaconda-ks.cfg
-rw-r--r--. 1 root root      886 May 26  2021 config.toml.bak
-rw-r--r--  1 root root 13242440 Dec 13 20:59 cri-dockerd-0.3.4.amd64.tgz
-rwxr-xr-x. 1 root root      269 Dec 13 19:28 images.sh
-rw-r--r--. 1 root root      859 Dec 13 19:55 kubeadm-init.yaml
[root@k8s-01 ~]# tar -xf cri-dockerd-0.3.4.amd64.tgz -C /usr/local/
[root@k8s-01 ~]# cd /usr/local/
[root@k8s-01 local]# mv cri-dockerd/cri-dockerd /usr/local/bin
[root@k8s-01 local]# cri-dockerd --version
cri-dockerd 0.3.4 (e88b1605)
[root@k8s-01 local]# 

2、配置开机自启
[root@k8s-01 local]# vi /etc/systemd/system/cri-dockerd.service
添加内容:

[Unit]
Description=CRI Interface for Docker Application Container Engine
Documentation=https://docs.mirantis.com
After=network-online.target firewalld.service docker.service
Wants=network-online.target

[Service]
Type=notify
ExecStart=/usr/local/bin/cri-dockerd --pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.9 --network-plugin=cni --cni-conf-dir=/etc/cni/net.d --cni-bin-dir=/opt/cni/bin --container-runtime-endpoint=unix:///var/run/cri-dockerd.sock --cri-dockerd-root-directory=/var/lib/dockershim --docker-endpoint=unix:///var/run/docker.sock --cri-dockerd-root-directory=/var/lib/docker
ExecReload=/bin/kill -s HUP $MAINPID
TimeoutSec=0
RestartSec=2
Restart=always
StartLimitBurst=3
StartLimitInterval=60s
LimitNOFILE=infinity
LimitNPROC=infinity
LimitCORE=infinity
TasksMax=infinity
Delegate=yes
KillMode=process
[Install]
WantedBy=multi-user.target


[root@k8s-01 local]#  vi /etc/systemd/system/cri-dockerd.socket
添加内容:
[Unit]
Description=CRI Docker Socket for the API
PartOf=cri-docker.service
[Socket]
ListenStream=/var/run/cri-dockerd.sock
SocketMode=0660
SocketUser=root
SocketGroup=docker
[Install]
WantedBy=sockets.target


3、设置开机自启
systemctl daemon-reload
systemctl start cri-dockerd.service
systemctl enable cri-dockerd.service

4.2 再次执行初始化报错解决

kubeadm init \
  --apiserver-advertise-address=192.168.234.21 \
  --control-plane-endpoint=k8s-01 \
  --image-repository registry.aliyuncs.com/google_containers \
  --kubernetes-version v1.24.1 \
  --service-cidr=10.11.0.0/16 \
  --pod-network-cidr=172.30.0.0/16

报错2:

[root@k8s-01 ~]# kubeadm init \
>   --apiserver-advertise-address=192.168.234.21 \
>   --control-plane-endpoint=k8s-01 \
>   --image-repository registry.aliyuncs.com/google_containers \
>   --kubernetes-version v1.24.1 \
>   --service-cidr=10.11.0.0/16 \
>   --pod-network-cidr=172.30.0.0/16
Found multiple CRI endpoints on the host. Please define which one do you wish to use by setting the 'criSocket' field in the kubeadm configuration file: unix:///var/run/containerd/containerd.sock, unix:///var/run/cri-dockerd.sock
To see the stack trace of this error execute with --v=5 or higher
[root@k8s-01 ~]#

解决:

报错原因:没有整合kubelet和cri-dockerd。



3、解决办法,在命令后面加上以下选项

--cri-socket unix:///var/run/cri-dockerd.sock


完整命令:

kubeadm init \
  --apiserver-advertise-address=192.168.234.21 \
  --control-plane-endpoint=k8s-01 \
  --image-repository registry.aliyuncs.com/google_containers \
  --kubernetes-version v1.24.1 \
  --service-cidr=10.11.0.0/16 \
  --pod-network-cidr=172.30.0.0/16 \
  --cri-socket unix:///var/run/cri-dockerd.sock

初始化正常:

Kubernetes(k8s)集群部署----->超详细_第15张图片

Kubernetes(k8s)集群部署----->超详细_第16张图片
Your Kubernetes control-plane has initialized successfully!

这个消息表示Kubernetes控制平面已经成功初始化。

以下输出信息,复制保存。

Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

Alternatively, if you are the root user, you can run:

  export KUBECONFIG=/etc/kubernetes/admin.conf

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

You can now join any number of control-plane nodes by copying certificate authorities
and service account keys on each node and then running the following as root:

  kubeadm join k8s-01:6443 --token 5sevvb.yo465pjpjogd7j21 \
        --discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c \
        --control-plane

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join k8s-01:6443 --token 5sevvb.yo465pjpjogd7j21 \
        --discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c

翻译:

你的Kubernetes控制平面已经成功初始化!

要开始使用你的集群,你需要以普通用户身份运行以下命令:

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

或者,如果你是root用户,可以运行以下命令:

export KUBECONFIG=/etc/kubernetes/admin.conf

现在,你应该在集群中部署一个pod网络。
运行 “kubectl apply -f [podnetwork].yaml” 命令,选择其中一个选项,参考链接:
https://kubernetes.io/docs/concepts/cluster-administration/addons/

你现在可以通过在每个节点上复制证书机构和服务帐户密钥,然后以root身份运行以下命令来加入任意数量的控制平面节点:

kubeadm join k8s-01:6443 –token 5sevvb.yo465pjpjogd7j21
–discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c
–control-plane

然后,你可以通过在每个工作节点上以root身份运行以下命令来加入任意数量的工作节点:

kubeadm join k8s-01:6443 –token 5sevvb.yo465pjpjogd7j21
–discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c

4.3 初始化完成,root用户执行命令

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

Kubernetes(k8s)集群部署----->超详细_第17张图片

五、安装网络插件Calico

安装网络插件:选择一种网络插件,如Flannel、Calico等,并在Master节点上安装和配置该插件。

 1、使用wget工具下载指定URL的文件calico.yaml,并且禁用SSL证书验证
 
wget https://docs.projectcalico.org/v3.25/manifests/calico.yaml --no-check-certificate


2、将清单文件(calico.yaml)应用到Kubernetes集群中,apply是一个kubectl的子命令,用于创建或更新Kubernetes资源

kubectl apply -f calico.yaml

Kubernetes(k8s)集群部署----->超详细_第18张图片

六、Worker节点部署

加入集群:在每个Worker节点上使用Kubeadm加入到Kubernetes集群中。
在每个从节点执行:

kubeadm join k8s-01:6443 --token 5sevvb.yo465pjpjogd7j21 \
        --discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c \
        --cri-socket unix:///var/run/cri-dockerd.sock

需要在末尾添加 --cri-socket unix:///var/run/cri-dockerd.sock:要不会报错:

Found multiple CRI endpoints on the host. Please define which one do you wish to use by setting the 'criSocket' field in the kubeadm configuration file: unix:///var/run/containerd/containerd.sock, unix:///var/run/cri-dockerd.sock
To see the stack trace of this error execute with --v=5 or higher

k8s-02:

Kubernetes(k8s)集群部署----->超详细_第19张图片
k8s-03:

Kubernetes(k8s)集群部署----->超详细_第20张图片

七、集群检查

1、获取所有命名空间中的所有Pod的信息。

kubectl get pod -A 


##所有都为runing状态

Kubernetes(k8s)集群部署----->超详细_第21张图片
2、获取集群中的所有节点列表。

kubectl get nodes 

Kubernetes(k8s)集群部署----->超详细_第22张图片

NAME:节点的名称。
STATUS:节点的状态,包括 Ready(准备就绪)和 NotReady(未准备就绪)。
ROLES:节点的角色,如 master(主节点)和 worker(工作节点)。
AGE:节点的运行时间。
VERSION:节点上运行的 Kubernetes 版本。

八、集群测试–集群自我修复

三台设备reboot重启。三台设备重新启动后,集群应该能够自动检测到它们的重新加入,并将它们纳入集群的运行中。
Kubernetes(k8s)集群部署----->超详细_第23张图片

重启后集群运行正常。
Kubernetes(k8s)集群部署----->超详细_第24张图片

部署示例应用:在Kubernetes集群中部署一个简单的示例应用,如一个Nginx服务。
验证应用状态:通过Kubectl命令或者Dashboard界面,验证示例应用的状态是否正常运行。
水平扩展应用:通过增加Pod的数量,测试集群的水平扩展能力。
高可用测试:模拟Master节点故障,测试集群的高可用性。

九、 部署Dashboard

可选步骤,如果需要可视化的管理界面,可以在Master节点上部署Dashboard。


1、Kubernetes Dashboard项目在Github上的源代码文件kubernetes-dashboard.yaml。保存为kubernetes-dashboard.yaml文件。

curl -o kubernetes-dashboard.yaml  https://raw.githubusercontent.com/kubernetes/dashboard/v2.6.1/aio/deploy/recommended.yaml

2、根据提供的kubernetes-dashboard.yaml文件中的配置信息,创建或更新Kubernetes Dashboard资源。

kubectl apply -f kubernetes-dashboard.yaml --validate=false

Kubernetes(k8s)集群部署----->超详细_第25张图片
Kubernetes(k8s)集群部署----->超详细_第26张图片

3、获取kube-system命名空间中的所有pods的详细信息

kubectl get pods -n kube-system -o wide

Kubernetes(k8s)集群部署----->超详细_第27张图片

4、修改访问端口

kubectl edit svc kubernetes-dashboard -n kubernetes-dashboard

Kubernetes(k8s)集群部署----->超详细_第28张图片

5、通过grep命令筛选出带有”kubernetes-dashboard”关键字的服务

 kubectl get svc -A | grep kubernetes-dashboard

在这里插入图片描述
30187 即为对外暴露的端口。

6、浏览器访问测试:https://192.168.234.21:30187/#/login

ip 可以是集群任意IP

Kubernetes(k8s)集群部署----->超详细_第29张图片

7、创建管理员角色, dashboard-adminuser.yaml

cat >>dashboard-adminuser.yaml<<'EOF'
apiVersion: v1
kind: ServiceAccount
metadata:
  name: admin-user
  namespace: kubernetes-dashboard
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: admin-user
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: cluster-admin
subjects:
- kind: ServiceAccount
  name: admin-user
  namespace: kubernetes-dashboard
---
apiVersion: v1
kind: Secret
metadata:
  name: admin-user
  namespace: kubernetes-dashboard
  annotations:
    kubernetes.io/service-account.name: "admin-user"   
type: kubernetes.io/service-account-token    
EOF

Kubernetes(k8s)集群部署----->超详细_第30张图片

8、kubectl apply -f dashboard-adminuser.yaml
kubectl get secret admin-user -n kubernetes-dashboard -o jsonpath={".data.token"} | base64 -d

#复制上面命令返回的token到web页面即可登录。

Kubernetes(k8s)集群部署----->超详细_第31张图片

Kubernetes(k8s)集群部署----->超详细_第32张图片

十、集群的加入令牌过期–处理

当Kubernetes集群的加入令牌过期时,可以采取以下步骤进行处理:

1、首先,检查是否有其他有效的加入令牌可用。可以通过运行以下命令获取可用的加入令牌列表:

kubeadm token list

2、如果有其他有效的加入令牌可用,可以使用该令牌重新加入集群。运行以下命令以使用新的令牌加入集群:

 kubeadm token create --print-join-command

在这里插入图片描述

结语:

本文详细介绍了Kubernetes分布式部署的实用步骤,希望能够帮助读者顺利部署和管理自己的Kubernetes集群。

Kubernetes作为一款强大的容器编排工具,能够帮助我们更高效地管理和运行容器化应用,提高应用的可靠性和可伸缩性。祝您在Kubernetes的世界里探索出更多的可能性!


The End点点关注,收藏不迷路

你可能感兴趣的:(容器化与编排技术深度解析,kubernetes,容器,云原生,docker,k8s)