搭建集群前提:
熟悉 Linux 操作系统
熟悉 Docker 的基本使用。
Namespace 做隔离,Cgroups 做限制,rootfs 做文件系统
容器的本质是进程
Kubernetes 就是操作系统
Pod 是一组共享了某些资源的容器(关乎容器设计模式)
它是一个为 容器化 应用提供集群部署和管理的开源工具,由 Google 开发, Go 语言编写。
主要特性:
Kubernetes 可以为你提供集中式的管理集群机器和应用,加机器、版本升级、版本回滚,那都是一个命令就搞定的事,不停机的灰度更新,确保高可用、高性能、高扩展。
传统部署方式: 应用直接在物理机上部署,机器资源分配不好控制,出现Bug时,可能机器的大部分资源被某个应用占用,导致其他应用无法正常运行,无法做到应用隔离。
虚拟机部署: 在单个物理机上运行多个虚拟机,每个虚拟机都是完整独立的系统,性能损耗大。
容器部署: 所有容器共享主机的系统,轻量级的虚拟机,性能损耗小,资源隔离,CPU和内存可按需分配。
master:主节点,控制平台,不需要很高性能,不跑任务,通常一个就行了,也可以开多个主节点来提高集群可用度。
Master 节点,由三个紧密协作的独立组件组合而成,它们分别是负责 API 服务的 kube-apiserver、负责调度的 kube-scheduler,以及负责容器编排的 kube-controller-manager。
整个集群的持久化数据,则由 kube-apiserver 处理后保存在 Etcd 中.
Node:计算节点,计算节点上最核心的部分,则是一个叫作 kubelet 的组件。
kubelet 主要负责同容器运行时(比如 Docker 项目)打交道。
kubelet 还通过 gRPC 协议同一个叫作 Device Plugin 的插件进行交互。
kubelet 的另一个重要功能,则是调用网络插件和存储插件为容器配置网络和持久化存储。
重要概念Pod:豆荚,K8S 调度、管理的最小单位,一个 Pod 可以包含一个或多个容器,每个 Pod 有自己的虚拟IP。一个工作节点可以有多个 pod,主节点会考量负载自动调度 pod 到哪个节点运行。
对于 Pod 里的容器 A 和容器 B 来说:它们可以直接使用 localhost 进行通信;它们看到的网络设备跟 Infra 容器看到的完全一样;一个 Pod 只有一个 IP 地址,也就是这个 Pod 的 Network Namespace 对应的 IP 地址;当然,其他的所有网络资源,都是一个 Pod 一份,并且被该 Pod 中的所有容器共享;Pod 的生命周期只跟 Infra 容器一致,而与容器 A 和 B 无关。
Pod,实际上是在扮演传统基础设施里“虚拟机”的角色;而容器,则是这个虚拟机里运行的用户程序。
- minikube:只是一个 K8S 集群模拟器,只有一个节点的集群,只为测试用,master 和 worker 都在一起
安装简单,支持各种平台,官网安装链接
# 启动集群
minikube start
# 查看节点。kubectl 是一个用来跟 K8S 集群进行交互的命令行工具
kubectl get node
# 停止集群
minikube stop
# 清空集群
minikube delete --all
# 安装集群可视化 Web UI 控制台
minikube dashboard
- 直接用云平台 Kubernetes:可视化搭建,只需简单几步就可以创建好一个集群。优点:安装简单,生态齐全,负载均衡器、存储等都给你配套好,简单操作就搞定。
容器服务TKE链接(控制台搜索容器)
登录阿里云控制台 - 产品搜索 Kubernetes
- 裸机安装(Bare Metal):至少需要两台机器(主节点、工作节点个一台),需要自己安装 Kubernetes 组件,配置会稍微麻烦点。(可以到各云厂商按时租用服务器,费用低,用完就销毁。)缺点:配置麻烦,缺少生态支持,例如负载均衡器、云存储。
K8s组件|官网链接
安装步骤
1、每个节点分别设置对应主机名
hostnamectl set-hostname master
hostnamectl set-hostname node1
hostnamectl set-hostname node2
2、所有节点都修改 hosts
[root@node2 ~]# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.153.144 master
192.168.153.145 node1
192.168.153.146 node2
测试:
[root@master ~]# ping node1
PING node1 (192.168.153.145) 56(84) bytes of data.
64 bytes from node1 (192.168.153.145): icmp_seq=1 ttl=64 time=1.23 ms
测试:
[root@node1 ~]# ping master
PING master (192.168.153.144) 56(84) bytes of data.
64 bytes from master (192.168.153.144): icmp_seq=1 ttl=64 time=0.655 ms
3、所有节点确保关闭SELinux和防火墙
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
sed -i --follow-symlinks 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/sysconfig/selinux
4、所有节点添加安装源
# 添加 k8s 安装源
cat <<EOF > kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
mv kubernetes.repo /etc/yum.repos.d/
# 添加 Docker 安装源
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
5、所有节点安装所需组件
yum install -y kubelet kubeadm kubectl docker-ce
6、所有节点启动 kubelet、docker,并设置开机启动
systemctl enable kubelet
systemctl start kubelet
systemctl enable docker
systemctl start docker
7、所有节点修改docker配置
# kubernetes 官方推荐 docker 等使用 systemd 作为 cgroupdriver,否则 kubelet 启动不了
cat <<EOF > daemon.json
{
"exec-opts": ["native.cgroupdriver=systemd"],
"registry-mirrors": ["https://ud6340vz.mirror.aliyuncs.com"]
}
EOF
mv daemon.json /etc/docker/
# 重启生效
systemctl daemon-reload
systemctl restart docker
8、在主节点
用Kubeadm初始化集群
# 初始化集群控制台 Control plane
# 失败了可以用 kubeadm reset 重置
kubeadm init --image-repository=registry.aliyuncs.com/google_containers
# 记得把 kubeadm join xxx 保存起来
# 忘记了重新获取:kubeadm token create --print-join-command
# 复制授权文件,以便 kubectl 可以有权限访问集群
# 如果你其他节点需要访问集群,需要从主节点复制这个文件过去其他节点
mkdir -p $HOME/.kube
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
chown $(id -u):$(id -g) $HOME/.kube/config
# 在其他机器上创建 ~/.kube/config 文件也能通过 kubectl 访问到集群
kubeadm init官网链接
9、将Node
加入集群
kubeadm join 172.16.32.10:6443 --token xxx --discovery-token-ca-cert-hash xxx
10、在Master
上安装网络插件,否则 node 是 NotReady 状态
# 很有可能国内网络访问不到这个资源,你可以网上找找国内的源安装 flannel
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
11、搭建成功,查看节点
要在主节点查看(其他节点有安装 kubectl 也可以查看)
kubectl get nodes
该方法更详细的搭建方法请看:亲测,这个绝对不报错,更详细!
基于 Kubernetes 开展工作时,你一定要优先考虑这两个问题:
我的工作是不是可以容器化?
我的工作是不是可以借助 Kubernetes API 和可扩展机制来完成?