k8s 基础概念及架构

一.学习前置知识

1.linux基本知识点     

2.docker 基础知识     参考:https://www.jianshu.com/c/fb233d56612f

二.k8s概念和架构知识

0.应用部署方式演变

在部署应用程序的方式上,主要经历了三个时代:

应用部署方式演变

1)传统部署:互联网早期,会直接将应用程序部署在物理机上

优点:简单,不需要其它技术的参与

缺点:不能为应用程序定义资源使用边界,很难合理地分配计算资源,而且程序之间容易产生影响

2)虚拟化部署:可以在一台物理机上运行多个虚拟机,每个虚拟机都是独立的一个环境

(工作中没有遇到这样部署应用的-----只在本地遇到过使用vargant本地部署服务测试使用)

优点:程序环境不会相互产生影响,提供了一定程度的安全性

缺点:增加了操作系统,浪费了部分资源

3)容器化部署:与虚拟化类似,但是共享了操作系统

优点:

a.可以保证每个容器拥有自己的文件系统、CPU、内存、进程空间等

b.运行应用程序所需要的资源都被容器包装,并和底层基础架构解耦

c.容器化的应用程序可以跨云服务商、跨Linux操作系统发行版进行部署

可能遇到的问题:

a.一个容器故障停机了,怎么样让另外一个容器立刻启动去替补停机的容器

b.当并发访问量变大的时候,怎么样做到横向扩展容器数量

c.当并发访问量下降了,怎么样回收容器的数量

其实这些容器管理的问题统称为容器编排问题,为了解决这些容器编排问题,就产生了一些容器编排的软件:

Swarm、compose:Docker自己的容器编排工具     

(具体参考:https://www.jianshu.com/c/fb233d56612f   中关于swarm和compose相关知识)

Mesos:Apache的一个资源统一管控的工具,需要和Marathon结合使用

Kubernetes:Google开源的的容器编排工具

1.k8s简单概述

kubernetes,是一个全新的基于容器技术的分布式架构领先方案,是谷歌严格保密十几年的秘密武器----Borg系统的一个开源版本,于2014年9月发布第一个版本,2015年7月发布第一个正式版本

使用k8s进行容器化应用部署,及使用k8s的目标是使容器化应用部署及扩容更加简洁和高效

2.k8s的功能及特性

1)自动装箱:基于容器对应用运行环境的资源配置要求自动部署应用容器

2)自我修复:一旦某一个容器崩溃,能够在短时间内迅速启动新的容器,恢复业务!当容器未通过监控检查时,会关闭容器直到容器正常运行,才对外提供服务

自动修复

3)水平扩展:可以根据需要,自动对集群中正在运行的容器数量进行调整

水平扩展

4)服务发现:服务可以通过自动发现的形式找到它所依赖的服务

5)滚动更新与回退:可以根据应用的变化,对应用容器运行的应用,进行一次性或批量的更新和回退

6)负载均衡:如果一个服务起动了多个容器,能够自动实现请求的负载均衡

7)存储编排:可以根据容器自身的需求自动创建存储卷,可以访问外部存储

8)批量部署:可以使用计划任务和批量操作

2.k8s架构组件

完整架构图
请求架构图

一个kubernetes集群主要是由控制节点(master)、工作节点(node)构成,每个节点上都会安装不同的组件。

1)master:集群的控制平面,负责集群的决策 ( 管理 )

ApiServer : 资源操作的唯一入口,接收用户输入的命令,提供认证、授权、API注册和发现等机制

Scheduler : 负责集群资源调度,按照预定的调度策略将Pod调度到相应的node节点上。(算哪个节点资源用的少,部署上去)

ControllerManager : 负责维护集群的状态,比如程序部署安排、故障检测、自动扩展、滚动更新等(部署和维护的)

Etcd :负责存储集群中各种资源对象的信息

master结构图

2)worker:集群的数据平面,负责为容器提供运行环境 ( 干活 )

Kubelet : 【master派到node节点的代表】负责维护容器的生命周期,即通过控制docker,来创建、更新、销毁容器

KubeProxy : 【提供网络代理】负责提供集群内部的服务发现和负载均衡

Docker : 负责节点上容器的各种操作

node结构图

3)容器运行环境【Container Runtime

容器运行环境是负责运行容器的软件

Kubernetes支持多个容器运行环境:Docker、containerd、cri-o、rktlet以及任何实现Kubernetes CRI (容器运行环境接口) 的软件。

4)fluentd:是一个守护进程,它有助于提升集群层面日志

3.k8s核心概念

1)pod:

      k8s中最小的部署单元,容器都是运行在pod中的,一个pod中可以有1个或者多个容器,一个pod的容器时共享网络的,生命周期时短暂的

2)controller【创建pod】:

    确保预期的pod副本的数量,无状态应用部署,有状态应用部署(有特定的存储及访问地址),确保所有的node运行同一个pod,一次性任务和定时任务

3)service:定义一组pod的访问规则,支持多种方式【ClusterIP、NodePort、LoadBalancer】

4)Label:标签,用于对pod进行分类,同一类pod会拥有相同的标签

5)NameSpace:命名空间,用来隔离pod的运行环境(同个命名空间里的pod可以相互访问)

6)Volume:声明在Pod容器中可访问的文件目录,可以被挂载到Pod中一个或多个容器指定路径下

支持多种后端存储抽象【本地存储、分布式存储、云存储】

7)Deployment:定义一组Pod副本数目,版本等

通过控制器【Controller】维持Pod数目【自动回复失败的Pod】

通过控制器以指定的策略控制版本【滚动升级、回滚等】

8)api:Kubernetes的API来操作整个集群

同时可以通过 kubectl 、ui、curl 最终发送 http + json/yaml 方式的请求给API Server,然后控制整个K8S集群,K8S中所有的资源对象都可以采用 yaml 或 json 格式的文件定义或描述

4.k8容器部署流程

1)通过Kubectl提交一个创建RC(Replication Controller)的请求,该请求通过APlserver写入etcd

2)此时Controller Manager通过API Server的监听资源变化的接口监听到此RC事件,分析之后,发现当前集群中还没有它所对应的Pod实例

3)于是根据RC里的Pod模板定义一个生成Pod对象,通过APIServer写入etcd

4)此事件被Scheduler发现,它立即执行执行一个复杂的调度流程,为这个新的Pod选定一个落户的Node,然后通过API Server将这一结果写入etcd中

5)目标Node上运行的Kubelet进程通过APiserver监测到这个"新生的Pod.并按照它的定义,启动该Pod并任劳任怨地负责它的下半生,直到Pod的生命结束

6)通过Kubectl提交一个新的映射到该Pod的Service的创建请求

7)ControllerManager通过Label标签查询到关联的Pod实例,然后生成Service的Endpoints信息,并通过APIServer写入到etod中

8)所有Node上运行的Proxy进程通过APIServer查询并监听Service对象与其对应的Endponts信息,建立一个软件方式的负载均衡器来实现Service访问到后端Pod的流量转发功能

5.部署应用流程介绍

以部署一个nginx服务来说明kubernetes系统各个组件调用关系:

首先要明确,一旦kubernetes环境启动之后,master和node都会将自身的信息存储到etcd数据库中

1)一个nginx服务的安装请求会首先被发送到master节点的apiServer组件

2)apiServer组件会调用scheduler组件来决定到底应该把这个服务安装到哪个node节点上

在此时,它会从etcd中读取各个node节点的信息,然后按照一定的算法进行选择,并将结果告知apiServer

3)apiServer调用controller-manager去调度Node节点安装nginx服务

4)kubelet接收到指令后,会通知docker,然后由docker来启动一个nginx的pod

pod是kubernetes的最小操作单元,容器必须跑在pod中

5)nginx服务就运行了,如果需要访问nginx,就需要通过kube-proxy来对pod产生访问的代理

这样,外界用户就可以访问集群中的nginx服务了

你可能感兴趣的:(k8s 基础概念及架构)