kubernetes是Google在2014年开源的一个容器群集管理系统,kubernetes简称k8s
k8s用于容器化应用程序的部署,扩展和管理
k8s提供了容器编排,资源调度,弹性伸缩,部署管理,服务发现等一系列功能
kubernetes目标是让部署容器化应用简单高效
自我修复
在节点故障时重新启动失败的容器,替换和重新部署,保证预期的副本数量;杀死健康检查失败的容器,并且在未准备好之前不会处理客户端请求,确保线上服务不中断。
弹性伸缩
使用命令、UI或者基于CPU使用情况自动快速扩容和缩容应用程序实例,保证应用业务高峰并发时的高可用性;业务低峰时回收资源,以最小成本运行服务。
自动部署和回滚
K8S采用滚动更新策略更新应用,一次更新 一个Pod,而不是同时删除所有Pod,如果更新过程中出现问题,将回滚更改,确保升级不受影响业务。
服务发现和负载均衡
K8S为多个容器提供一个统一访问入口(内部IP地址和一个DNS名称),并且负载均衡关联的所有容器,使得用户无需考虑容器IP问题。
机密和配置管理
管理机密数据和应用程序配置,而不需要把敏感数据暴露在镜像里,提高敏感数据安全性。并可以将一些常用的配置存储在K8S中,方便应用程序使用。
存储编排
挂载外部存储系统,无论是来自本地存储,公有云(如AWS),还是网络存储(如NFS、GlusterFS、 Ceph)都作为集群资源的一部分使用, 极大提高存储使用灵活性。
批处理
提供一次性任务,定时任务;满足批量数据处理和分析的场景
master 组件
kube-apiserver
Kubernetes API,集群的统一入口, 各组件协调者,以RESTful API提供接口服务,所有对象资源的增删改查和监听操作都交给APIServer处理后再提交给Etcd存储。
kube-controller-manager
处理集群中常规后台任务,一个资源对应一个控制器,而ControllerManager就是负责管理这些控制器的。
kube-scheduler
根据调度算法为新创建的Pod选择一个Node节点,可以任意部署可以部署在同一个节点上,也可以部署在不同的节点上。
etcd
分布式键值存储系统,用于保存群集状态数据,比如Pod、Service等对象信息
Node组件
kubelet
kubelet是Master在Node节点上的Agent,管理本机运行容器的生命周期,比如创建容器、Pod挂载数据卷、下载secret、获取容器和节点状态等工作。kubelet将每个Pod转换成一组容器
kube-proxy
在Node节点上实现Pod网络代理,维护网络规则和四层负载均衡工作
docker或rocket
容器引擎,运行容器
Pod
最小部署单元
一组容器的集合
一个Pod中的容器共享网络命名空间
Pod是短暂的、
Controllers
ReplicaSet:确保预期的Pod副本数量
Deployment:无状态应用部署
StatefulSet:有状态应用部署
DaemonSet:确保所有Node运行同一个Pod
Job:一次性任务
Cronjob:定时任务
Service
防止Pod失联
定义一组Pod的访问策略
Lable:标签,附加到某个资源上,用于关联对象、查询和筛选
Namespaces:命名空间,将对象逻辑上隔离
Annotations:注释
minikube
Minikube是一个工具,可以在本地快速运行一个单点的Kubernetes,仅用于尝试Kubernetes或日常开发的用户使用
kubeadm
Kubeadm也是一个工具,提供kubeadm init 和kubeadm join,用于快速部署Kubernetes群集
二进制包
推荐,从官方下载发行版的二进制包,手动部署每个组件,组成Kubernetes群集
生产环境中使用kubeadm和二进制安装的比较多
组件 | 使用证书 |
---|---|
etcd | ca.pem、server.pem、server-key.pem |
flannel | ca.pen、server.pem、server-key.pem |
kube-apiserver | ca.pem、server.pem、server-key.pem |
kubelet | ca.pem、ca-key.pem |
kube-proxy | ca.pem、kube-proxy.pem、kube-proxy-key.pem |
kubectl | ca.pem、admin.pem、admin-key.pem |
实验环境:
Master:192.168.66.91/24 kube-apiserver kube-controller-manager kube-scheduler etcd
Node01:192.168.66.93/24 kubelet kube-proxy docker flannel etcd
Node02:192.168.66.94/24 kubelet kube-proxy docker flannel etcd
#master操作
mkdir k8s
cd k8s/
mkdir etcd-cert
mv etcd-cert.sh etcd-cert
#下载证书制作工具
vim cfssl.sh
curl -L https://pkg.cfssl.org/R1.2/cfssl_linux-amd64 -o /usr/local/bin/cfssl
curl -L https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64 -o /usr/local/bin/cfssljson
curl -L https://pkg.cfssl.org/R1.2/cfssl-certinfo_linux-amd64 -o /usr/local/bin/cfssl-certinfo
chmod +x /usr/local/bin/cfssl /usr/local/bin/cfssljson /usr/local/bin/cfssl-certinfo
bash cfssl.sh #下载cfssl官方包
如果有证书制作工具的
cd /usr/local/bin/ #宿主机直接拖进此目录
cfssl cfssl-certinfo cfssljson
chmod + /usr/local/bin/*
#开始制作证书
#cfssl 生成证书工具 cfssljson通过传入json文件生成证书 cfssl-certinfo查看证书信息
cd etcd-cert/
cat > ca-config.json < ca-csr.json < server-csr.json <
#源码安装etcd
tar zxvf etcd-v3.3.10-linux-amd64.tar.gz
mkdir /opt/etcd/{cfg,bin,ssl} -p #配置文件,命令文件,证书
cd etcd-v3.3.10-linux-amd64/
mv etcd etcdctl /opt/etcd/bin/
cd etcd-cert/
mv *.pem /opt/etcd/ssl #证书拷贝
bash etcd.sh etcd01 192.168.66.91 etcd02=https://192.168.66.93:2380,etcd03=https://192.168.66.94:2380 #进入卡住状态等待其他节点加入
ps -ef | grep etcd #使用另外一个会话打开,会发现etcd进程已经开启
scp -r /opt/etcd/ [email protected]:/opt/ #拷贝证书去其他节点
scp -r /opt/etcd/ [email protected]:/opt #拷贝证书去其他节点
scp /usr/lib/systemd/system/etcd.service [email protected]:/usr/lib/systemd/system/ #启动脚本拷贝其他节点
scp /usr/lib/systemd/system/etcd.service [email protected]:/usr/lib/systemd/system/ #启动脚本拷贝其他节点
在node01和node02节点修改
vim /opt/etcd/cfg/etcd
#[Member]
ETCD_NAME="etcd02"
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_PEER_URLS="https://192.168.66.93:2380" #ip地址修改对应的node节点
ETCD_LISTEN_CLIENT_URLS="https://192.168.66.94:2379" #ip地址修改对应的node节点
#[Clustering]
ETCD_INITIAL_ADVERTISE_PEER_URLS="https://192.168.66.93:2380" #ip地址修改对应的node节点
ETCD_ADVERTISE_CLIENT_URLS="https://192.168.66.94:2379" #ip地址修改对应的node节点
ETCD_INITIAL_CLUSTER="etcd01=https://192.168.66.91:2380,etcd02=https://192.168.66.93:2380,etcd03=https://192.168.66.94:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
ETCD_INITIAL_CLUSTER_STATE="new"
systemctl start etcd
systemctl enable etcd
systemctl status etcd
检查群集状态(需要在有证书的目录下使用此命令)
cd /opt/etcd/ssl
/opt/etcd/bin/etcdctl --ca-file=ca.pem --cert-file=server.pem --key-file=server-key.pem --endpoints="https://192.168.66.91:2379,https://192.168.66.93:2379,https://192.168.66.94:2379" cluster-health