【Hadoop】Apache Hadoop YARN

🦄 个人主页——🎐开着拖拉机回家_Linux,Java基础学习,大数据运维-CSDN博客 🎐✨🍁

感谢点赞和关注 ,每天进步一点点!加油!

目录

一、YARN概述

二、YARN基础架构

2.1 ResourceManager(RM)

2.1.1 Scheduler

2.1.2 ApplicationManager

2.2 ApplicationMaster(AM)

2.3 NodeManager(NM)

2.4 Container

三、YARN作业提交流程

四、YARN 常用命令和资源配置参数

4.1 Yarn常用命令

4.2 yarn-site.xml


一、YARN概述


Apache Hadoop YARN (Yet Another Resource Negotiator,另一种资源协调者)是一种新的 Hadoop 资源管理器,它是一个通用资源管理系统,可为上层应用提供统一的 资源管理和调度,它的引入为集群在利用率、资源统一管理和数据共享等方面带来了巨大好处。

  • 资源管理系统:管理集群的cpu,内存,YARN没有管理磁盘,因为磁盘由HDFS管理 。
  • 调度平台:为来申请资源的应用合理分配资源
  • 通用性:支持各种计算框架,YARN不关心你干是干什么的,只关心你要的资源。

    从上图中可以看出,集群最底层的是HDFS,在其之上的就是YARN层,而在YARN层上则是各种不同的计算框架。YARN资源调度不仅支持MapReduce,还支持其他很多框架,如 Hive 、Spark、Fink 等任务,且YARN能支持各种框架来读取HDFS上的数据。


    二、YARN基础架构


    2.1 ResourceManager(RM)


    ResourceManager(RM):RM是一个全局的资源管理器,负责整个系统的资源管理和分配。它主要由两个组件构成:调度器(Scheduler)和 应用程序管理器(Applications Manager,ASM)。

    调度器根据容量、队列等限制条件(如每个队列分配一定的资源,最多执行一定数量的作业等),将系统中的资源分配给各个正在运行的应用程序。调度器仅根据各个应用程序的资源需求进行资源分配,而资源分配单位用一个抽象概念“资源容器”(Resource Container,简称Container)表示,Container是一个动态资源分配单位,它将内存、CPU、磁盘、网络等资源封装在一起,从而限定每个任务使用的资源量。此外,Scheduler是一个可插拔的组件,用户可根据自己的需要设计新的调度器,YARN提供了多种直接可用的调度器,比如Fair Scheduler和Capacity Scheduler等。

    2.1.1 Scheduler


    Scheduler是一个可插拔的插件,负责各个运行中的应用的资源分配,受到资源容量,队列以及其他因素的影响。是一个纯粹的调度器,不负责应用程序的监控和状态追踪,不保证应用程序的失败或者硬件失败的情况对 TASK 重启,而是基于应用程序的资源需求执行其调度功能,使用了叫做资源 container 的概念,其中包括多种资源,比如,cpu,内存,磁盘,网络等。在 Hadoop 的 MapReduce 框架中主要有三种Scheduler:FIFO Scheduler,Capacity Scheduler 和 Fair Scheduler。

    • FIFO Scheduler:先进先出,不考虑作业优先级和范围,适合低负载集群。
    • Capacity Scheduler:将资源分为多个队列,允许共享集群,有保证每个队列最小资源的使用。
    • Fair Scheduler:公平的将资源分给应用的方式,使得所有应用在平均情况下随着时间得到相同的资源份额。

      2.1.2 ApplicationManager


      ApplicationManager 主要负责接收 job 的提交请求,为应用分配第一个Container 来运行 ApplicationMaster,还有就是负责监控 ApplicationMaster,在遇到失败时重启 ApplicationMaster 运行的 Container。

      2.2 ApplicationMaster(AM)


      ApplicationMaster(AM):用户提交的每个应用程序均包含一个AM,主要功能包括:

      • 与ResourceManager调度器协商以获取资源(用Container表示);
      • 将得到的任务进一步分配给内部的任务(资源的二次分配);
      • 与NM通信以启动/停止任务;
      • 监控所有任务运行状态,并在任务运行失败时重新为任务申请资源以重启任务。

        当一个 ApplicationMaster 启动后,会周期性的向 ResourceManager 发送心跳报告来确认其健康和所需的资源情况,在建好的需求模型中,ApplicationMaster 在发往 ResourceManager 中的心跳信息中封装偏好和限制,在随后的心跳中, ApplicationMaster 会对收到集群中特定节点上绑定了一定的资源的 Container 的租约,根据 ResourceManager 发来的 Container,ApplicationMaster 可以更新它的执行计划以适应资源不足或者过剩,Container 可以动态的分配和释放资源。

        2.3 NodeManager(NM)


        NodeManager(NM):NM是每个节点上的资源和任务管理器,一方面,它会定时地向RM汇报本节点上的资源使用情况和各个Container的运行状态;另一方面,它接收并处理来自AM的Container启动/停止等各种请求。

        NodeManager 是 yarn 节点的一个“工作进程”代理,管理 hadoop 集群中独立的计算节点,主要负责与 ResourceManager 通信,负责启动和管理应用程序的 container 的生命周期,监控它们的资源使用情况( cpu 和内存),跟踪节点的监控状态,管理日志等。并报告给RM。

        NodeManager 在启动时,NodeManager 向 ResourceManager 注册,然后发送心跳包来等待 ResourceManager 的指令,主要目的是管理 resourcemanager 分配给它的应用程序 container。NodeManager 只负责管理自身的 Container,它并不知道运行在它上面应用的信息。在运行期,通过 NodeManager 和 ResourceManager 协同工作,这些信息会不断被更新并保障整个集群发挥出最佳状态。

        主要职责:

        1、接收 ResourceManager 的请求,分配 Container 给应用的某个任务

        2、和 ResourceManager 交换信息以确保整个集群平稳运行。ResourceManager 就是通过收集每个NodeManager的报告信息来追踪整个集群健康状态的,而 NodeManager 负责监控自身的健康状态。

        3、管理每个 Container 的生命周期

        4、管理每个节点上的日志

        5、执行 Yarn 上面应用的一些额外的服务,比如 MapReduce 的 shuffle 过程。

        2.4 Container


        Container:Container是YARN中的资源抽象,它封装了某个节点上的多维度资源,如内存、CPU等,当AM向RM申请资源时,RM为AM返回的资源便是用Container表示。YARN会为每个任务分配一个Container,且该任务只能使用该Container中描述的资源。YARN仅支持CPU和内存两种资源,且使用了轻量级资源隔离机制Cgroups进行资源隔离。

        YARN的资源管理和执行框架都是按主/从范例实现,节点管理器(NM)运行、监控每个节点并向集群的资源管理器(RM)报告资源的可用性状态,资源管理器最终为系统里所有应用分配资源。

        特定应用的执行由ApplicationMaster控制,ApplicationMaster负责将一个应用分割成多个任务,并和资源管理器协调执行所需的资源,资源一旦分配好,ApplicationMaster就和节点管理器一起安排、执行、监控独立的应用任务。


        三、YARN作业提交流程


        1、客户端程序向 ResourceManager 提交应用并请求一个 ApplicationMaster 实例, ResourceManager 在应答中给出一个 applicationId 以及有助于客户端请求资源的资源容量信息。

        2、ResourceManager 找到可以运行一个 Container 的 NodeManager,并在这个 Container 中启动 ApplicationMaster 实例。

        Application Submission Context 发出响应,其中包含有:ApplicationId,用户名,队列以及其他启动 ApplicationMaster 的信息。

        Container Launch Context(CLC)也会发给 ResourceManager,CLC提供了资源的需求,作业文件,安全令牌以及在节点启动 ApplicationMaster 所需要的其他信息。

        当 ResourceManager 接收到客户端提交的上下文,就会给 ApplicationMaster 调度一个可用的 Container(通常称为container0)。然后ResourceManager就会联系 NodeManager 启动 ApplicationMaster,并建立 ApplicationMaster 的 RPC 端口和用于跟踪的 URL ,用来监控应用程序的状态。

        3、ApplicationMaster 向 ResourceManager 进行注册,注册之后客户端就可以查询 ResourceManager 获得自己 ApplicationMaster 的详细信息,以后就可以和自己的 ApplicationMaster 直接交互了。在注册响应中,ResourceManager 会发送关于集群最大和最小容量信息。

        4、ApplicationMaster根据resource-request协议向ResourceManager发送resource-request请求,ResourceManager会根据调度策略尽可能最优的为ApplicationMaster分配container资源,作为资源请求的应答发给ApplicationMaster。

        5、当Container被成功分配之后,ApplicationMaster通过向NodeManager发送container-launch-specification信息来启动Container, container-launch-specification信息包含了能够让Container和ApplicationMaster交流所需要的资料,一旦container启动成功之后,ApplicationMaster就可以检查他们的状态,Resourcemanager不在参与程序的执行,只处理调度和监控其他资源,Resourcemanager可以命令NodeManager杀死container。

        6、应用程序的代码在启动的Container中运行,并把运行的进度、状态等信息通过application-specific协议发送给ApplicationMaster,随着作业的执行,ApplicationMaster将心跳和进度信息发给ResourceManager,在这些心跳信息中,ApplicationMaster还可以请求和释放一些container。

        7、在应用程序运行期间,提交应用的客户端主动和ApplicationMaster交流获得应用的运行状态、进度更新等信息,交流的协议也是application-specific协议。

        8、一旦应用程序执行完成并且所有相关工作也已经完成,ApplicationMaster向ResourceManager取消注册然后关闭,用到所有的Container也归还给系统,当container被杀死或者回收,Resourcemanager就会通知NodeManager聚合日志并清理container专用的文件。


        四、YARN 常用命令和资源配置参数


        4.1 Yarn常用命令


        列出所有的Application

        yarn application -list

        根据Application状态过滤任务

        yarn application -list -appStates XXX(XXX - ALL、NEW、NEW_SAVING、SUBMITTED、ACCEPTED、RUNNING、FINISHED、FAILED、KILLED)

        任务状态

        yarn application -status  application-id

        杀死任务

        yarn application -kill application-id

        查询Application日志

        yarn logs -applicationId 

        列出所有NM节点

        打印队列信息

        yarn queue -status kangll

        YARN 任务在WEB页面上可以看资源使用和运行情况,ResourceManager IP:8088

        如下也可以看到各个NM上的内存和 CPU核数使用情况

        4.2 yarn-site.xml


        如下是常用的的YARN资源配置参数

           yarn.resourcemanager.am.max-attempts 2    yarn.resourcemanager.scheduler.class org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler    yarn.scheduler.maximum-allocation-mb 20480    yarn.scheduler.maximum-allocation-vcores 16    yarn.scheduler.minimum-allocation-mb 512    yarn.scheduler.minimum-allocation-vcores 1    yarn.nodemanager.resource.cpu-vcores 16    yarn.nodemanager.resource.memory-mb 20480    yarn.nodemanager.resource.percentage-physical-cpu-limit 80 

        参考链接:

        百度安全验证