深入YARN系列主要分为:
YARN的总体架构模式是Master/Slave主从模式。一个全局的ResourceManager ( RM,主 ,可以多个HA),多个NodeManager共同构成计算框架。 NodeManager (NM)是每台机器的框架代理,管理单个节点的资源和任务,比如负责容器container、监控其资源使用情况(cpu、内存、磁盘、网络)等。既然YARN是为了给计算框架做资源调度分配与管理的,那么少不了应用程序管理相关的框架:ApplicationMaster (AM) 实际上是一个特定框架的库,其作用是负责管理整个系统中所有的应用程序(从任务提交到结束),协商来自 ResourceManager 的资源,同时与 NodeManager 一起执行和监视任务。
从上面这张Hadoop官网的照片我们可以清晰的看出,YARN主要有以下三个组件构成.ResourceManager,NodeManager,ApplicationMaster构成。
YARN 可以看出一个大的云操作系统,它负责为应用程序启动 ApplicationMaster(相当于主线程),然后再由 ApplicationMaster 负责数据切分、任务分配、 启动和监控等工作,而由 ApplicationMaster 启动的各个 Task(相当于子线程)仅负责自己的计算任务。当所有任务计算完成后,ApplicationMaster 认为应用程序运行完成,然后退出。
RM负责整个系统的资源分配与管理;它主要有调度器ResourceScheduler和应用程序管理器(APPlications Manager)构成;
Resource Scheduler调度器只负责资源的细分调度,比如按照队列,容量等指标,给每个请求的应用程序分配的指定数量的资源。 Hadoop 提供了三种不同的资源调度器供选用,用户可以在配置文件中加以选择。这三种调度器是FIFO Scheduler, FAIR Scheduler,CAPACITY Scheduler,详细使用可以参考官网或我的其他博客。yarn配置文件 yarn-sire.xml 中
yarn.resourcemanager.scheduler.class
org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler
APPlications Manager 应用程序管理器负责整个系统中所有应用程序的管理,包括管理启动的所有ApplicationMaster (AM)实例,比如启动AM,和AM通信并监控所有AM实例的运行状态,某个AM失败时,在失败次数范围内时对其进行重启等(默认一个应用的AM可以启动2次)。区别APPlications Manager和APPlications Master,两者不同,前者管理后者的实例。
NM是单个节点的资源管理器,管理者单个节点的资源分配与任务。所以如果hadoop集群特殊情况时想做存储与计算分离,则某些节点可以只启动Datanode,或只启动Nodemanger即可,这样可以只做存储节点或者计算节点,当然也可以通过参数限制存储的使用和计算的使用比例。所以NM是YARN的实际计算节点。
尖叫总结:RM内部有个 ResourceTrackerService 类的对象 resourceTracker ,它跟踪管理着 NodeManager 节点所知道的资源变动。同时 NodesListManager 类的对象nodesListManager 则维持着一个节点清单,记录着哪些节点当前是可用的,哪些则是不可用的。而 ResourceTrackerService 和 NodesListManager 掌握的则是来自所有 NodeManager 节点的心跳报告,通过心跳进行交互的信息如节点当前状态,资源使用情况等。这些信息最终都要汇集到ResourceScheduler,通过调度器将资源分配出去给用户使用。
客户端每使用YARN启动执行一个应用程序之前,先启动一个AM(其实本质就是一个运行的Container,一个程序最早启动的container实例)
尖叫总结:从上面可以看出,YARN三大组件的RM,NM都只与资源分配有关,只有AM跟应用程序有关。所以如果想将一个新的计算框架(比如自定义的)/应用程序使用YARN进行资源调度和任务管理,只需要从重新实现两个组件即可,前者是提交任务使用的客户端Client,后者就是Application Master。比如MapReduce计算引擎能直接配置使用YARN进行调度,就是YARN默认给他实现了可以提交任务通信的客户端JobClient和任务管理器MapReduce Application Master(简称MRAppMaster)。
开发人员经常会在任务中看到RPC通信异常,也有IPC通信异常,报错等?或者查到监控指标RPC请求延迟等?大家应该都不陌生,那么这些报错意味着什么呢?如何解决呢?
RPC通信是指远程过程调用(Remote Procedure Call)通信协议,主要用来让远程的两台服务器之间A主机的程序可以调用B主机的子程序,是一种远程分布式网络调用通信协议,我们不用太关注底层网络通信细节(不用关注TCP,UDP等),是一种封装好了的通信协议,直接拿来用即可,真香。
IPC通信是指进程间通信(Inter-Process Communication ,IPC)协议,这个是分布式系统通信的基石。
尽管Java自带了一套RPC通信组件(RMI,remote method Invocation),但是Hadoop并没有使用该框架,因为相比Java的RMI,后者更加轻量级,高性能和可控性。Hadoop的RPC框架也是C/S模式,分成了四个模块,分别是序列化层,函数调用层,网络传输层以及server端处理层。当前开源的RPC框架很多,比如Apache的AVRO,Google的Protocol Buffer等。
YARN的RPC通信为了更好的兼容默认使用Google的Protocol Buffer作为默认的序列化机制,而不是Hadoop自带的Writtable。在 YARN 中,任何两个需相互通信的组件之间仅有一个 RPC 协 议,而对于任何一个 RPC 协议,通信双方有一端是 Client,另一端为 Server,且 Client 总 是主动连接 Server 的,因此,YARN 实际上采用的是拉式(pull-based)通信模型。
比如NM和RM之前的远程通信就是基于RPC,通过ResouceTracker实现,其中RM是服务端,NM是客户端。NM主要通过调用ResouceTracker中两个RPC函数与之交互,前者是NM刚启动时通过registerNodeManager函数向RM进行注册,然后再通过nodeHeartBeat像RM发送周期性心跳,维护两者之间的交互。如下图所示,因为RPC分成了四层次序列化层,函数调用层,网络传输层以及server端处理层,所有不同组件之间实现通信的“协议”是不同的。
尖叫总结:RM,NM,AM三大组件互相通信,通过不同RPC框架协议进行通信,进而保持整个YARN资源的调度和任务监控实施。