电脑:MacBook Pro M1(ARM架构)
虚拟机软件:Vmware Fusion 13
LInux镜像: CentOS7.X-aarch64
⚠️注意:因为本机是ARM架构,下文中多处镜像源后缀有aarch64,x86架构的请自行替换⚠️
学习参考来源B站
自己搞,略
Mac 如何干净的卸载 VMware Fusion
VMware Fusion下修改vmnet8网络和添加vmnet网络
安装要求
- 三台服务器,操作系统为CentOS7.X-aarch64
- 硬件配置:2GB或更多RAM,2个CPU或更多CPU,硬盘30GB或更多
- 集群中所有机器之间网络互通
- 可以访问外网,需要拉取镜像(或者提前准备好镜像)
# 关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
# 设置节点主机名(三台机器分别执行)
hostnamectl set-hostname k8s-master
hostnamectl set-hostname k8s-node1
hostnamectl set-hostname k8s-node2
# 在master添加hosts
cat >> /etc/hosts << EOF
192.168.100.100 k8s-master
192.168.100.101 k8s-node1
192.168.100.102 k8s-node2
EOF
# 关闭 SELinux,否则 kubelet 挂载目录时可能报错Permission denied
sed -i 's/enforcing/disabled/' /etc/selinux/config # 永久
setenforce 0 # 临时
# 关闭swap分区,否则kubelet会启动失败,也可以设置kubelet启动参数 --fail-swap-on为false关闭swap检查
# swapoff -a # 临时
#sed -ri 's/.*swap.*/#&/' /etc/fstab # 永久
# 关闭完swap后,一定要重启一下虚拟机!!!
# 问题:妈勒个巴子,关闭swap分区后 配置文件成了只读文件,无法写入, ssh也连接不上了 (和 1核2G 有关系吗)
# 解决:不要直接使用sed -ri 's/.*swap.*/#&/' /etc/fstab,重启后vi进/etc/fstab发现内容为空,全没了,直接vi进去注释掉swap行,重启完事
swapoff -a # 临时关闭swap分区, 重启失效
# 永久关闭swap分区
vi /etc/fstab 注释掉swap行
注释掉swap行 /dev/mapper/cl-swap swap swap defaults 0 0
#关闭完swap后,重启一下虚拟机!!!
free -h # 查看swap分区内存占用率,检查swap是否已关闭
# 将桥接的IPv4流量传递到iptables的链
cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system # 生效
# 时间同步
yum install ntpdate -y
ntpdate time.windows.com
k8s node为什么需要关闭selinux与swap
# step 1: 安装必要的一些系统工具
sudo yum install -y yum-utils device-mapper-persistent-data lvm2
# Step 2: 添加软件源信息
sudo yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
# Step 3: 更新并安装Docker-CE
sudo yum makecache fast
sudo yum -y install docker-ce
# Step 4: 开启Docker服务
sudo service docker start
systemctl enable docker
# 注意:
# 官方软件源默认启用了最新的软件,您可以通过编辑软件源的方式获取各个版本的软件包。例如官方并没有将测试版本的软件源置为可用,您可以通过以下方式开启。同理可以开启各种测试版本等。
# vim /etc/yum.repos.d/docker-ee.repo
# 将[docker-ce-test]下方的enabled=0修改为enabled=1
#
# 安装指定版本的Docker-CE:
# Step 1: 查找Docker-CE的版本:
# yum list docker-ce.x86_64 --showduplicates | sort -r
# Loading mirror speeds from cached hostfile
# Loaded plugins: branch, fastestmirror, langpacks
# docker-ce.x86_64 17.03.1.ce-1.el7.centos docker-ce-stable
# docker-ce.x86_64 17.03.1.ce-1.el7.centos @docker-ce-stable
# docker-ce.x86_64 17.03.0.ce-1.el7.centos docker-ce-stable
# Available Packages
# Step 5: 配置docker的阿里镜像源
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["此处修改成你自己的加速 url"]
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker
# Step 1: 添加k8s的阿里云YUM源
cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-aarch64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
yum clean all #清除缓存
yum makecache #重新生成缓存
# Step 2: 安装 kubeadm、kubelet、kubectl
yum install -y kubelet-1.23.6 kubeadm-1.23.6 kubectl-1.23.6
# 开启自启动
systemctl enable kubelet
# Step 3: 配置关闭 Docker 的 cgroups,修改 /etc/docker/daemon.json,加入以下内容,不然后面初始化会报异常
"exec-opts": ["native.cgroupdriver=systemd"]
# 重启 docker
systemctl daemon-reload
systemctl restart docker
#================在k8s-master上执行==============
# Step 1: 初始化master节点
kubeadm init \
--apiserver-advertise-address=192.168.100.100 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.23.6 \
--service-cidr=10.96.0.0/12 \
--pod-network-cidr=10.244.0.0/16
# Step 2: 安装成功后,复制如下配置并执行
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
# Step 3: 查看是否初始化成功
kubectl get nodes
# ============分别在 k8s-node1 和 k8s-node2 执行================
# 下方命令可以在 k8s master 控制台初始化成功后复制 join 命令
# Step 1: 将node节点加入master
kubeadm join 192.168.100.100:6443 --token j7mpyq.z1py5hwl6ke9os02 \
--discovery-token-ca-cert-hash sha256:57400b47ee911242d9c11f7273d1211cda0dc77994155217ad4248a5719c29a9
# Step 2: 查看是否加入成功(master)
[root@k8s-master ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-master NotReady control-plane,master 76s v1.23.6
k8s-node1 NotReady <none> 47s v1.23.6
k8s-node2 NotReady <none> 45s v1.23.6
# ======================备注===========================
# 1.如果初始化的token不小心清空了,可以通过如下命令获取或者重新生成token
# 如果token已经过期,重新生成token
kubeadm token create
# 如果token没有过期,可以通过如下命令获取
kubeadm token list
# 获取 --discovery-token-ca-cert-hash 值,得到值后需要在前面拼接上 sha256:
openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | \
openssl dgst -sha256 -hex | sed 's/^.* //'
# 2.如果没有openssl,用下面的命令安装
yum install openssl openssl-devel -y
openssl version
# 3.kubeadm安装过程中发生异常
#如果kubeadm安装过程中发生异常,使用重置命令 kubeadm reset,重新使用kubeadm init进行初始化
kubeadm reset
# 来源:[k8s节点加入集群异常解决](https://blog.csdn.net/lj779323436/article/details/123605588?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522169141150116800186580108%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=169141150116800186580108&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~first_rank_ecpm_v1~rank_v31_ecpm-1-123605588-null-null.142%5Ev92%5Econtrol&utm_term=k8s%20%E8%AF%A5%E8%8A%82%E7%82%B9%E6%9C%AA%E5%8A%A0%E5%85%A5%E9%9B%86%E7%BE%A4&spm=1018.2226.3001.4187)
#==================为什么要安装CNI 网络插件?==================
# 检查节点状态,发现都是 NotReady没有准备好,什么原因呢
[root@k8s-master ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-master NotReady control-plane,master 76s v1.23.6
k8s-node1 NotReady <none> 47s v1.23.6
k8s-node2 NotReady <none> 45s v1.23.6
# 检查组件状态,发现都健康
[root@k8s-master ~]# kubectl get componentstatus #简写命令kubectl get cs
Warning: v1 ComponentStatus is deprecated in v1.19+
NAME STATUS MESSAGE ERROR
scheduler Healthy ok
controller-manager Healthy ok
etcd-0 Healthy {"health":"true","reason":""}
# 指定命名空间查询pods核心组件,发现coredns前两个没有运行
[root@k8s-master ~]# kubectl get pods -n kube-system
NAME READY STATUS RESTARTS AGE
coredns-6d8c4cb4d-jdd8g 0/1 Pending 0 35m
coredns-6d8c4cb4d-mrvvx 0/1 Pending 0 35m
etcd-k8s-master 1/1 Running 1 35m
kube-apiserver-k8s-master 1/1 Running 1 35m
kube-controller-manager-k8s-master 1/1 Running 1 35m
kube-proxy-lhx86 1/1 Running 0 35m
kube-proxy-px46l 1/1 Running 0 35m
kube-proxy-tnn48 1/1 Running 0 35m
kube-scheduler-k8s-master 1/1 Running 1 35m
# 原因:因为还未安装网络相关的服务,所以coredns服务是不运行的。
# ======================安装网络服务(master)=====================
# Step 1: 下载 calico 配置文件,可能会网络超时
mkdir /opt/k8s
curl https://docs.projectcalico.org/manifests/calico.yaml -O
# 修改 calico.yaml 文件中的 CALICO_IPV4POOL_CIDR 配置,修改为与初始化的 cidr 相同
# 修改 IP_AUTODETECTION_METHOD 下的网卡名称
# !!以上两个修改可以不用改!!因为master初始化时,指定了--pod-network-cidr=10.244.0.0/16,可以不用修改这里的配置,calico.yaml中默认是注释的CALICO_IPV4POOL_CIDR
# Step 2: 删除镜像 docker.io / 前缀,避免下载过慢导致失败
grep image calico.yaml
sed -i 's#docker.io/##g' calico.yaml
# Step 3: 构建calico
kubectl apply -f calico.yaml
# Step 4: 查询pod状态
[root@k8s-master k8s]# kubectl get pods -n kube-system
NAME READY STATUS RESTARTS AGE
calico-kube-controllers-74dbdc644f-zjgcp 1/1 Running 0 14m
calico-node-69db2 1/1 Running 0 14m
calico-node-kb77c 1/1 Running 0 14m
calico-node-m68tm 1/1 Running 0 14m
coredns-6d8c4cb4d-jdd8g 1/1 Running 0 132m
coredns-6d8c4cb4d-mrvvx 1/1 Running 0 132m
etcd-k8s-master 1/1 Running 1 133m
kube-apiserver-k8s-master 1/1 Running 1 133m
kube-controller-manager-k8s-master 1/1 Running 1 133m
kube-proxy-lhx86 1/1 Running 0 132m
kube-proxy-px46l 1/1 Running 0 132m
kube-proxy-tnn48 1/1 Running 0 132m
kube-scheduler-k8s-master 1/1 Running 1 133m
# 容器构建时间比较长,多等一会儿,多查几次,最终全部为: 1/1 Running
# 结果:coredns服务已运行
# Step 5: 检查节点状态
[root@k8s-master k8s]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-master Ready control-plane,master 136m v1.23.6
k8s-node1 Ready <none> 136m v1.23.6
k8s-node2 Ready <none> 136m v1.23.6
# 结果:节点状态都是 Ready准备好了
# 至此,网络服务安装成功
# 创建一个nginx,用来测试k8s集群是否搭建成功并可用
# 创建部署
kubectl create deployment nginx --image=nginx
# 暴露端口
kubectl expose deployment nginx --port=80 --type=NodePort
# 查看 pod 以及服务信息
kubectl get pod,svc
# 测试ip端口是否能访问nginx
curl 192.168.100.100:30658
http://192.168.100.100:30658
http://192.168.100.101:30658
http://192.168.100.102:30658
# 1. 将 master 节点中 /etc/kubernetes/admin.conf 拷贝到需要运行的服务器的 /etc/kubernetes 目录中
scp /etc/kubernetes/admin.conf root@k8s-node1:/etc/kubernetes
# 2. 在对应的服务器上配置环境变量
echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile
source ~/.bash_profile