到了k8s
的文章了, 博主前面介绍了swarm
集群, swarm
集群本身相对来说比较简单、 轻量, 所以并没有重点介绍, 但是k8s
不太一样, 这玩意还是比较复杂, 一两篇简单介绍不完, 所以博主这边得细说几篇, 最后也会做个实例, 方便大家参考。
k8s
是谷歌, swarm
是官网方案swarm
轻量, 直接docker
就有了, k8s
还得安装且较为复杂。这里就出现一个点, 简单意味着部署运维成本低, 所以成本这方面, k8s
要高不少pod
比swarm
的service
更加强大k8s
健康机制完善, Replication Controllers
可以监控并维持容器的生命k8s
选用Flannel
作为overlay
网络,可以让每一个使用 Kuberentes
的CoreOS
主机拥有一个完整的子网。k8s
占据优势, 启动速度swarm
要快, 它只需要两层交换, 而k8s
需要五层k8s
要,比较完善CPU
使用率使用偏高,k8s
可以根据Pod
的使用率自动调整一个部署里面Pod
的个数,保障服务可用性,但swarm
则不具备这种能力。网上找的两张图, 大家可以看看, 明显k8s
看着要线段要多, 等大家玩了这两个集群再来看看这个架构图比较好, 现在只是让大家看看里面的基本概念
一般高可用集群副本数据最好是 > 3 的奇数 (5,7,9...),主要是方便选举leader
pod
由一个或者多个为实现某个特定功能而放在一起的容器组成。在pod
内的docker共享volume
和网络namespace
,彼此之间可以通过localhost
通信或者标准进程间通信。
用pod
有什么好处呢?
我们试想这样一个场景:我们有一个web
应用的容器,现在我们为了收集web
日志需要安装一个日志插件,如果把插件安装在web
应用容器的里面,则会面临如下一些问题:
web
应用没有变化,但因为两者共享一个镜像,则必须把整个镜像构建一遍;web
容器的日志的问题。有了pod
以后,这些问题都可以迎刃而解。在pod
里面为日志插件和web
应用各自创建一个容器,两者共享volume
,web
应用容器只需将日志保存到volume
,变可以很方便的让日志插件读取。同时,两个容器拥有各自的镜像,彼此更新互不影响。
pod
之间能够通信网络, 需要部署网络, 其中就可以选择flannel
来解决
在复杂系统中,团队会非常容易意外地或者无意识地重写或者中断其他服务service
。相反,请创建多个命名空间来把你的服务service
分割成更容易管理的块。
命名空间具有一定隔离性, 但是并不是绝对的隔离,一个namespace
中service
可以和另一个namespace
中的service
通信。
这玩意, 就是对外提供api
的, 可以让更多客户端灵活控制集群, 例如我们后面使用的kubectl
, 通过调用apiserver
的api
很方便对集群进行操作, 谁用谁知道, 真好!
这可是个厉害的东西, 是一个单独项目, 在k8s
是个很重要的组件etcd
是CoreOS
团队于2013年6月发起的开源项目,它的目标是构建一个高可用的分布式键值(key-value)数据库。etcd
内部采用raft
协议作为一致性算法,etcd
基于Go
语言实现。
整个kubernetes
系统中一共有两个服务需要用到etcd
用来协同和存储配置:
flannel
、对于其它网络插件也需要用到etcd
存储网络的配置信息kubernetes
本身,包括各种对象的状态和元信息配置,当数据发生变化会快速通知kubernetes
相关组件在kubernetes
集群中,每个Node
节点都会启动kubelet
进程,用来处理Master
节点下发到本节点的任务,管理Pod
和其中的容器。kubelet
会在API Server
上注册节点信息,定期向Master
汇报节点资源使用情况,并通过cAdvisor
监控容器和节点资源。可以把kubelet
理解成【Server-Agent】
架构中的agent
,是Node
上的pod
管家。直接和容器引擎交互实现容器的生命周期管理
运行控制器,它们是处理集群中常规任务的后台线程。逻辑上,每个控制器是一个单独的进程,但为了降低复杂性,它们都被编译成独立的可执行文件,并在单个进程中运行。
这些控制器包括:
(Node Controller)
: 当节点移除时,负责注意和响应。(Replication Controller)
: 负责维护系统中每个副本控制器对象正确数量的 Pod
。(Endpoints Controller)
: 填充 端点(Endpoints)
对象(即连接 Services & Pods)
。(Service Account & Token Controllers)
: 为新的namespace
创建默认帐户
和 API
访问令牌.Scheduler
负责Pod
调度。在整个系统中起"承上启下"作用,承上:负责接收Controller Manager
创建的新的Pod
,为其选择一个合适的Node
;启下:Node上
的kubelet
接管Pod
的生命周期。
Pod
列表的每个Pod
从Node
列表中选择一个最适合的Node
,并将信息写入etcd
中kubelet
通过API Server
监听到kubernetes Scheduler
产生的Pod
绑定信息,然后获取对应的Pod
清单,下载Image
,并启动容器。这也挺, 是做转发的, 还能实现内部负载均衡,例如说:
一般service
在逻辑上代表了后端的多个Pod
,外界通过service
访问Pod
。service
接收到的请求就是通过kube-proxy
转发到Pod
上的。
每个Node
都会运行kube-proxy
服务,它负责将访问service
的TCP/UDP
数据流转发到后端的容器。如果有多个副本,kube-proxy
会实现负载均衡。
可以为集群中的svc
创建一个域名IP
的对应关系解析, pod
之间可以直接利用coredns
生成域名来进行访问
给集群提供B/S
结构访问体系
官方只能实现四层代理, 这玩意实现七层
跨集群中心多k8s统一管理
集群监控
集群日志统一分析介入平台
差不多了, 再啥有再更新吧, 这些理论总结于互联网, 我实在没法全面写出这些东西, 我白话一些没问题, 也当做个笔记, 看官们也可以整理一下这些概念, 看完这些再去看看架构图, 应该会清晰不少
博主之所以学习这个集群, 那完全是公司现在集群方面全转k8s
了, 以前还是使用swarm
的, 所以也没必要为了追求高端一点的技术选择k8s
(但是现在阿里云已经将swarm
下架了,没法在阿里上玩了), 不要增加了软件开发难度, 适合自己的最好。(不过使用阿里生态没得选了,阿伟)
综上所述???! 偏向于k8s
, 果然, 越南的越吃香。下篇更新一下k8s
的相关操作!!!!记得来看。
本文为作者原创,手码不易,允许转载,转载后请以链接形式说明文章出处。