模块二 Kubernetes集群搭建及命令行工具使用

1、硬件环境准备

  • 准备三台虚拟服务器(可采用VMware Workstation或者VirtualBox)
    操作系统要求 CentOS 版本7.5~7.8,建议7.8
    http://mirrors.163.com/centos/7.8.2003/
  • 购置三台云云主机(CentOS 版本7.6)
  • 配置要求:
    不低于2U/4G、硬盘不小于40G
    IP地址可自行规划、能够连接互联网
  • 注意:虚拟机建议采用桥接或者NAT模式(配置DNS)

2、系统初始化

  • 关闭Selinux
[root@k8s-m ~]# sed -i 's/enforcing/disabled/' /etc/selinux/config
[root@k8s-m ~]# setenforce 0
  • 关闭交换分区
[root@k8s-m ~]# swapoff -a
[root@k8s-m ~]# vim /etc/fstab
  • 清空Iptables规则、关闭防火墙并设置开机不启动
[root@k8s-m ~]# iptables -F
[root@k8s-m ~]# iptables -Z
[root@k8s-m ~]# iptables -X
[root@k8s-m ~]# iptables-save
[root@k8s-m ~]# systemctl stop firewalld
[root@k8s-m ~]# systemctl disable firewalld
  • 桥接的IPv4流量传递到iptables的链
[root@k8s-m ~]# cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
[root@k8s-m ~]# sysctl --system
  • 配置主机名及本地DNS解析
[root@k8s-m ~]# hostnamectl set-hostname k8s-master
[root@k8s-m ~]# cat >> /etc/hosts << EOF
192.168.X.61 k8s-master
192.168.X.62 k8s-node1
192.168.X.63 k8s-node2
EOF
  • 配置时间同步
[root@k8s-m ~]# yum install ntpdate -y
[root@k8s-m ~]# ntpdate time.windows.com

3、k8s组件的安装

  • 在所有节点(master、node)安装

(1)下载Docker的REPO文件并安装、设置、校验

~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
~]# yum -y install docker-ce-18.06.1.ce-3.el7
~]# systemctl enable docker && systemctl start docker
~]# docker --version

(2)添加阿里云的镜像文件实现加速(需重启Docker服务)

~]# cat > /etc/docker/daemon.json << EOF
{
  "registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"]
}
EOF
~]# systemctl restart docker

(3)下载kubernetes的REPO文件并安装组件

~]# cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

(4)安装k8s组件

~]# yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0
~]# systemctl enable kubelet

4、部署Master

  • 初始化Master节点
[root@k8s-m ~] kubeadm init \
  --apiserver-advertise-address=192.168.X.61 \
  --image-repository registry.aliyuncs.com/google_containers \
  --kubernetes-version v1.18.0 \
  --service-cidr=10.96.0.0/12 \
  --pod-network-cidr=10.244.0.0/16 \
  --ignore-preflight-errors=all
  • 使用kubectl工具
[root@k8s-m ~] mkdir -p $HOME/.kube
[root@k8s-m ~] sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@k8s-m ~] sudo chown $(id -u):$(id -g) $HOME/.kube/config
[root@k8s-m ~] kubectl get nodes

5、加入Node节点

[root@k8s-node ~] kubeadm join 192.168.X.61:6443 --token esce21.q6hetwm8si29qxwn \
    --discovery-token-ca-cert-hash sha256:00603a05805807501d7181c3d60b478788408cfe6cedefedb1f97569708be9c5

默认token有效期为24小时,当过期之后,该token就不可用了。这时就需要重新创建token,操作如下

[root@k8s-m ~] kubeadm token create
[root@k8s-m ~] kubeadm token list
[root@k8s-m ~] openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'
63bca849e0e01691ae14eab449570284f0c3ddeea590f8da988c07fe2729e924

[root@k8s-m ~] kubeadm join 192.168.31.61:6443 --token nuja6n.o3jrhsffiqs9swnu --discovery-token-ca-cert-hash sha256:63bca849e0e01691ae14eab449570284f0c3ddeea590f8da988c07fe2729e924

或者用以下命令

kubeadm token create --print-join-command

6、部署网络

注意:只需要部署下面其中一个,推荐Calico

  • Calico

Calico是一个纯三层的数据中心网络方案,Calico支持广泛的平台,包括Kubernetes、OpenStack等。Calico 在每一个计算节点利用 Linux Kernel 实现了一个高效的虚拟路由器( vRouter) 来负责数据转发,而每个 vRouter 通过 BGP 协议负责把自己上运行的 workload 的路由信息向整个 Calico 网络内传播。此外,Calico 项目还实现了 Kubernetes 网络策略,提供ACL功能。

wget https://docs.projectcalico.org/manifests/calico.yaml

下载完后还需要修改里面配置项:

  • 定义Pod网络(CALICO_IPV4POOL_CIDR),与前面pod CIDR配置一样
  • 选择工作模式(CALICO_IPV4POOL_IPIP),支持BGP(Never)、IPIP(Always)、CrossSubnet(开启BGP并支持跨子网)

修改完后应用清单:

[root@k8s-m ~] kubectl apply -f calico.yaml
[root@k8s-m ~] kubectl get pods -n kube-system
  • Flannel

Flannel是CoreOS维护的一个网络组件,Flannel为每个Pod提供全局唯一的IP,Flannel使用ETCD来存储Pod子网与Node IP之间的关系。flanneld守护进程在每台主机上运行,并负责维护ETCD信息和路由数据包。

[root@k8s-m ~] wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
[root@k8s-m ~] sed -i -r "s#quay.io/coreos/flannel:.*-amd64#81286980/flannel:v0.11.0-amd64#g" kube-flannel.yml

7、测试集群

  • 测试应用部署
  • 测试网络
  • 验证DNS解析
临时启动一个Pod验证
[root@k8s-m ~] kubectl run dns-test -it --rm --image=busybox:1.28.4 -- sh

8、部署Dashboard

[root@k8s-m ~] wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.3/aio/deploy/recommended.yaml

默认Dashboard只能集群内部访问,修改Service为NodePort类型,暴露到外部:

kind: Service
apiVersion: v1
metadata:
  labels:
    k8s-app: kubernetes-dashboard
  name: kubernetes-dashboard
  namespace: kubernetes-dashboard
spec:
  ports:
    - port: 443
      targetPort: 8443
      nodePort: 30001
  selector:
    k8s-app: kubernetes-dashboard
  type: NodePort

访问地址:https://NodeIP:30001

创建service account并绑定默认cluster-admin管理员集群角色:

[root@k8s-m ~] kubectl create serviceaccount dashboard-admin -n kube-system
[root@k8s-m ~] kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
[root@k8s-m ~] kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')

使用输出的token登录Dashboard

你可能感兴趣的:(docker,容器,devops)