Hadoop学习---9、Yarn

news2024/10/6 4:11:16

1、Yarn资源调度器

Yarn是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而MapReduce等运算程序则相当于运行在于操作系统之上的应用程序。

1.1 Yarn基础架构

Yarn主要由ResourceManager、NodeManager、ApplicationMaster和Container等组件构成。
在这里插入图片描述
1、ResourceManager(RM)主要作用:
(1)处理客户端请求
(2)监控NodeManager
(3)启动或监控ApplicationMaster
(4)资源的分配和调度

2、NodeManager(NM)主要作用:
(1)管理单个节点上的资源
(2)处理来自ResourceManager的命令
(3)处理来自ApplicationMaster的命令

3、ApplicationMaster(AM)的主要作用·:
(1)为应用程序申请资源并分配给内部的任务
(2)任务的监控与容错

4、Container
Container是Yarn中的资源抽象,它封装了某个节点上的多维度资源,如内存、CPU、磁盘、网络等。

1.2 Yarn工作机制

在这里插入图片描述
(1)MR程序提交到客户端所在的节点
(2)YarnRunner向ResourceManager申请一个Application
(3)RM将该应用程序的资源路径返回给YarnRunner。
(4)该程序将运行所需资源提交到HDFS上
(5)程序资源提交完毕后,申请运行mrAppMaster
(6)RM将用户的请求初始化成一个Task
(7)其中一个NodeManager领取到Task任务
(8)该NodeManager创建容器,并尝试MRAppmaster
(9)Container从HDFS上拷贝资源到本地
(10)MRAppMaster向RM申请运行MapTask资源
(11)RM将运行MapTask任务分配给另外两个NodeManager,另外两个NodeManager分别领取任务并创建容器。
(12)MR向两个接受到任务的NodeManager发生程序启动脚本,这两个NodeManager分别启动MapTask,MapTask对数据分区排序。
(13)MRAppMaster等待所以MapTask运行完毕后,向RM申请容器,运行Reduce Task。
(14)ReduceTask向MapTask获取相应分区的数据
(15)程序运行完毕后,MR会向RM申请注销自己。

1.3 作业提交全过程

在这里插入图片描述
1、作业提交过程之YARN
在这里插入图片描述
2、作业提交之HDFS&&MapReduce
在这里插入图片描述
作业提交全过程详解
(1)作业提交
(a)client调用job.waitForCompletion()方法,向整个集群提交MapReduce作业。
(b)client向RM申请一个作业id
(c)RM给Client返回该job资源的提交路径和作业id
(d)client提交jar包、切片信息和配置文件到指定的资源提交路径
(e)client提交完资源后,向RM申请运行MRAppMaster

(2)作业初始化
(a)当RM收到client的请求后,将该job添加到容量调度器中
(b)某一个空间的NM领到该Job
(c)该NM创建Container,并产生MRAppMaster
(d)下载Client提交的资源到本地

(3)任务分配
(a)MRAppMaster向RM申请运行多个MapTask任务资源
(b)RM将运行MapTask任务分配给另外两个NodeManager,这两个NodeManager分别领取任务并创建容器。

(4)任务运行
(a)MR向两个接受到任务的NodeManager发送程序启动脚本,这两个NodeManager分别启动MapTask,MapTask对数据分区排序。
(b)MRAppMaster等待所有MapTask运行完毕后,向RM申请容器,运行ReduceTask。
(c)ReduceTask向MapTask获取相应分区的数据
(d)程序运行完毕后·,MR会向RM申请注销自己。

(5)进度和状态更新
Yarn中的任务将其进度和状态(包括counter)返回给应用管理器,客户端每秒(通过mapreduce.client.progressmonitor.pollinterval 设置)向应用管理器请求进度更新,展示给用户。

(6)作业完成
除了向应用管理器请求作用进度外,客户端每5秒都会通过调用waitForCompletion()方法来检查作业是否完成。时间间隔可以通过 mapreduce.client.completion.pollinterval 来设置。作业完成之后,应用管理器和Container会清理工作状态。作业的信息会被作业历史服务器储存以备之后用户核查。

1.4 Yarn调度器和调度算法

目前,Hadoop作业调度器主要有三种:FIFO、容量(Capacity Scheduler)和公平(Fair Scheduler)。Apache Hadoop3.1.3默认的资源调度器是Capacity Scheduler。
CDH框架默认调度器是Fair Scheduler。
具体详见:yarn-default.xml文件

<property>
 <description>The class to use as the resource scheduler.</description>
 <name>yarn.resourcemanager.scheduler.class</name>
<value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value>
</property>
1.4.1 先进先出调度器(FIFO)

FIFO调度器(First In First Out):单队列,根据提交·作业的先后顺序,先来先服务。
在这里插入图片描述
优点:简单易懂
缺点:不支持多队列,生产环境很少使用

1.4.2 容量调度器(Capacity Scheduler)

Yahoo开发的多用户调度器
在这里插入图片描述
1、多队列:每个队列可配置一定的资源量,每个队列采用FIFO调度策略
2、容量保证:管理员可为每个队列设置资源最低保证和资源使用上限
3、灵活性:如果一个队列中的资源有剩余,可以暂时共享给那些需要资源的队列,而一旦该队列有新的应用程序,则其他队列借调的资源会归还给该队列。
4、多租户:
(1)支持多用户共享集群和多应用程序同时运行
(2)为了防止同一个用户的作业独占队列中的资源,该调度器会对象同一用户提交的作业所占资源量进行限定。

在这里插入图片描述
容量调度器资源分配算法:
(1)队列资源分配
从root开始,使用深度优先算法,优先选择资源占用率最低的队列分配资源。
(2)作业资源分配
默认按照提交作业的优先级和提交时间顺序分配资源
(3)容器资源分配
按容器的优先级分配资源:
如果优先级相同,按照数据本地性原则:
(a)任务和数据在同一个节点
(b)任务和数据在同一个机架
(c)任务和数据不同节点和不同机架

1.4.3 公平调度器(Fair Scheduler)

是Facebook开发的多用户调度器
在这里插入图片描述
1、与容量调度器相同点
(1)多队列:支持多队列多作业
(2)容量保证:管理员可为每个队列设置资源最低保证和资源使用上限
(3)灵活性:如果一个队列的资源有剩余,可以暂时共享给那些需要资源的队列,而一旦该队列有新的应用程序提交,则其他队列借调的资源会归还给该队列
(4)多租户:支持多用户共享集群和多应用程序同时运行;为了防止同一个用户的作业独占队列中的资源,该调度器会对同一个用户提交的作业所占资源量进行限定。

2、与容量调度器不同点
(1)核心调度策略不同
(a)容量调度器:优先选择资源利用率低的队列
(b)公平调度器:优先选择对资源缺额比例大的资源
(2)每个队列可以单独设置资源分配方式
(a)容量调度器:FIFO、DRF
(b)公平调度器:FIFO、FAIR、DRF
在这里插入图片描述
3、公平调度器队列资源分配方式
(1)FIFO策略
公平调度器每个队列资源分配策略如果选择FIFO的话,此时公平调度器相当于上面讲过的容量调度器。
(2)Fair策略
Fair策略(默认)是一种基于最大最小公平算法实现的资源多路复用方式。默认情况下,每个队列内部采用该方式分配资源。这意味着,如果一个队列中有两个应用程序在同时运行,则每个应用程序可以得到1/2的资源;如果三个应用程序同时运行,则每个应用程序可以得到1/3的资源。

具体资源分配流程和容量调度器一致:
(1)选择队列
(2)选择作业
(3)选择容器
以上三步,每一步都是按照公平策略分配资源
实际最小资源份额:mindshare = Min(资源需求量,配置的最小资源)
是否饥饿:isNeedy = 资源使用量 < mindshare(实际最小资源份额)
资源分配比:minShareRatio = 资源使用量 / Max(mindshare, 1)
资源使用权重比:useToWeightRatio = 资源使用量 / 权重
在这里插入图片描述
(3)公平调度器资源分配算法
在这里插入图片描述
(4)公平调度算法队列资源分配方式
在这里插入图片描述
(5)DRF策略
DRF(Dominant Resource Fairness),我们之前说的资源,都是单一标准,例如只考虑内存(也是Yarn默认的情况)。但是很多时候我们资源有很多种,例如内存,CPU,网络带宽等,这样我们很难衡量两个应用应该分配的资源比例。

那么在YARN中,我们用DRF来决定如何调度:
假设集群一共有100 CPU和10T 内存,而应用A需要(2 CPU, 300GB),应用B需要(6 CPU,100GB)。则两个应用分别需要A(2%CPU, 3%内存)和B(6%CPU, 1%内存)的资源,这就意味着A是内存主导的, B是CPU主导的,针对这种情况,我们可以选择DRF策略对不同应用进行不同资源(CPU和内存)的一个不同比例的限制。

1.5 Yarn常用命令

Yarn状态的查询,除了可以在ResourceManager节点ip+端口号8088在页面查看外,还可以通过命令操作。常见的命令操作如下:

1.5.1 yarn Application查看任务

(1)列出所有Application:

yarn application -list

在这里插入图片描述
(2)根据Application状态过滤 (所有状态:ALL、NEW、
NEW_SAVING、SUBMITTED、ACCEPTED、RUNNING、FINISHED、FAILED、KILLED)

yarn application -list -appStates

(3)kill 掉Application

yarn application -kill application_1612577921195_0001
1.5.2 yarn logs查看日志

(1)查询 Application 日志:yarn logs -applicationId
(2)查询 Container 日志:yarn logs -applicationId -containerId

1.5.3 yarn applicationattempt 查看尝试运行的任务

(1)列出所有 Application 尝试的列表:yarn applicationattempt -list
(2)打印 ApplicationAttemp 状态:yarn applicationattempt -status

1.5.4 yarn Container查看容器

(1)列出所有 Container:yarn container -list
(2)打印 Container 状态:yarn container -status

注意:只有在任务跑的途中才能看到 container 的状态

1.5.5 yarn node 查看节点状态

列出所有节点:yarn node -list -all

1.5.6 yarn rmadmin 更新配置

加载队列配置:yarn rmadmin -refreshQueues

1.5.6 yarn queue 查看队列

打印队列信息:yarn queue -status

1.6 Yarn生产环境核心参数

1、ResourceManager相关

核心参数说明
yarn.resourcemanager.scheduler.class配置调度器,默认容量
yarn.resourcemanager.scheduler.client.thread-countResourceManager处理调度器请求的线程数量,默认50

2、NodeManager相关

核心参数说明
yarn.nodemanager.resource.detect-hardware-capabilities是否让yarn自己检测硬件进行配置,默认false
yarn.nodemanager.resource.count-logical-processors-as-cores是否将虚拟核数当作CPU核数,默认false
yarn.nodemanager.resource.pcores-vcores-multiplier虚拟核数和物理核数乘数,例如:4核8线程,该参数就应设为2,默认1.0
yarn.nodemanager.resource.memory-mbNodeManager使用内存,默认8G
yarn.nodemanager.resource.system-reserved-memory-mb NodeManager为系统保留多少内存以上二个参数配置一个即可
yarn.nodemanager.resource.cpu-vcoresNodeManager使用CPU核数,默认8个
yarn.nodemanager.pmem-check-enabled是否开启物理内存检查限制container,默认打开
yarn.nodemanager.vmem-check-enabled是否开启虚拟内存检查限制container,默认打开
yarn.nodemanager.vmem-pmem-ratio虚拟内存物理内存比例,默认2.1

3、Container相关

核心参数说明
yarn.scheduler.minimum-allocation-mb容器最最小内存,默认1G
yarn.scheduler.maximum-allocation-mb容器最最大内存,默认8G
yarn.scheduler.minimum-allocation-vcores容器最小CPU核数,默认1个
yarn.scheduler.maximum-allocation-vcores容器最大CPU核数,默认4个

2、案例实操

2.1 Yarn的Tool接口案例

(1)需求:自己写的程序可以动态传参。编写Yarn的Tool接口。
(2)编码
(a)WordCount类

package org.example._14yarntool;


import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.Tool;


import java.io.IOException;

/**
 * @ClassName WordCount
 * @Description TODO
 * @Author Zouhuiming
 * @Date 2023/5/24 17:34
 * @Version 1.0
 */
public class WordCount implements Tool {

    private Configuration conf;
    @Override
    public int run(String[] args) throws Exception {
        Job job= Job.getInstance(conf);

        job.setJarByClass(WordCountDriver.class);


        job.setMapperClass(WordCountMapper.class);
        job.setReducerClass(WordCountReducer.class);

        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(IntWritable.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);


        FileInputFormat.setInputPaths(job,new Path(args[0]));
        FileOutputFormat.setOutputPath(job,new Path(args[1]));

        return job.waitForCompletion(true) ? 0 : 1;
    }

    @Override
    public void setConf(Configuration configuration) {
        this.conf=configuration;
    }

    @Override
    public Configuration getConf() {
        return conf;
    }

    public static class WordCountMapper extends Mapper<LongWritable, Text,Text, IntWritable>{

        private Text outK=new Text();
        private IntWritable outV=new IntWritable(1);

        @Override
        protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, Text, IntWritable>.Context context) throws IOException, InterruptedException {
            String line=value.toString();
            String[] words = line.split(" ");

            for (String word : words) {
                outK.set(word);
                context.write(outK,outV);
            }
        }
    }

    public static class WordCountReducer extends Reducer<Text,IntWritable,Text,IntWritable>{
        private IntWritable outV=new IntWritable();

        @Override
        protected void reduce(Text key, Iterable<IntWritable> values, Reducer<Text, IntWritable, Text, IntWritable>.Context context) throws IOException, InterruptedException {
            int sum=0;

            for (IntWritable value : values) {
                sum+=value.get();
            }

            outV.set(sum);
            context.write(key,outV);
        }
    }

}


(b)Driver类

package org.example._14yarntool;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;

import java.util.Arrays;

/**
 * @ClassName WordCountDriver
 * @Description TODO
 * @Author Zouhuiming
 * @Date 2023/5/24 17:42
 * @Version 1.0
 */
public class WordCountDriver {
    private static Tool tool;

    public static void main(String[] args) throws Exception {
        //1、创建配置文件
        Configuration conf=new Configuration();

        //2、判断是否有tool接口
        switch (args[0]){
            case "wordcount":
                tool=new WordCount();
                break;
            default:
                throw new RuntimeException("No such tool:"+args[0]);
        }

        //3、用Tool执行程序
        //Arrays.copyOfRange()将老数组的元素放到新数组里面
        int run=ToolRunner.run(conf,tool,Arrays.copyOfRange(args,1,args.length));

        System.exit(run);
    }
}


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/575346.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

MyCat|Shardingsphere-proxy:jdbc连接MySQL8.0.33的query_cache_size异常解决方案

当前版本&#xff1a;MySQL 8.0.33 &#xff0c;Mycat-server-1.6.7.6-release-20220524173810-win&#xff0c;apache-shardingsphere-5.3.2-shardingsphere-proxy-bin&#xff0c;jdk 1.8 1. 问题的主要背景 MySQL 8.0.33版本&#xff0c;搭建了主从复制&#xff0c;需要借…

24 VueComponent 的 render

前言 这是最近的碰到的那个 和响应式相关的问题 特定的操作之后响应式对象不“响应“了 引起的一系列的文章 主要记录的是 vue 的相关实现机制 呵呵 理解本文需要 vue 的使用基础, js 的使用基础 测试用例 测试用例如下, 一个简单的 按钮事件的触发 问题的调试 编译…

微软正在研究使 Linux 脚本更安全

导读据悉&#xff0c;微软正在研究使 Linux 脚本更安全 微软正在研究使 Linux 脚本更安全 在本周的 Linux 安全峰会上&#xff0c;systemd 的创建者 Lennart Poettering 发表了演讲&#xff0c;他在过去的一年中被微软雇佣&#xff0c;他和微软的其它工程师们正在努力提高 Lin…

Linux 下进行权限修改 chmod命令

查看权限 ls -l 文件名该命令可以查看文件的详细属性&#xff0c;包括文件的权限 权限含义 -rwxrwxrwx在文件系统中&#xff0c;user、group、others的权限是分开的&#xff0c;第一个rwx代表user的权限、第二个rwx代表group的文件、第三个rwx代表others的权限 字符含义值…

Storm学习笔记

1 Storm是什么 Apache Storm是一个分布式实时流式大数据处理框架。 2 计算框架对比 (1) Storm是在线处理数据方式&#xff0c;Mapreduce/spark是离线处理数据方式。 (2) Mapreduce数据处理特点 海量数据处理&#xff1a;G、T、P级都能处理 全量数据集同时处理&#xff1…

纯js实现在线文字识别,从图片中提取文本信息

当你需要将图片中的文字内容提取出来时&#xff0c;你可能想到了手动输入或者使用OCR技术。而当你需要进行在线文字识别时&#xff0c;一个纯JavaScript实现的OCR工具可能会成为你的优选方案。 纯JavaScript&#xff0c;使得在浏览器内部进行文字识别变得可能。 此外&#x…

chatgpt赋能python:Python文件备份:保障数据安全,高效便捷的备份方案

Python文件备份&#xff1a;保障数据安全&#xff0c;高效便捷的备份方案 在日常工作中&#xff0c;文件备份是保障数据安全的必要措施。Python作为一个强大的编程语言&#xff0c;在文件备份方面有着出色的表现。本文将重点介绍Python文件备份的相关知识。 Python文件备份的…

矿井水深度除氟装置CH-87的技术应用

今天&#xff0c;文章中会谈到的问题是关于煤化工废水深度处理除氟、总氮、砷等污染物工艺技术的拆解分析&#xff0c;用什么样的工艺技术能把矿井水中的氟、砷、总氮做到1个毫克升以下的标准符合达标排放&#xff1f;希望能对相关行业起到一定的帮助作用。我国是一个资源丰富的…

《安富莱嵌入式周报》第313期:搬运机器人,微软出的C语言手册,开源生物信号采集板,开源SMD回流焊,开源SDR无线电,汽车级机器人评估板

周报汇总地址&#xff1a;嵌入式周报 - uCOS & uCGUI & emWin & embOS & TouchGFX & ThreadX - 硬汉嵌入式论坛 - Powered by Discuz! 更新一期视频教程&#xff1a; DSP视频教程第12期&#xff1a;TI开源分享IQmath DSP源码&#xff0c;适用于所有Cortex…

TCP通信流程详解

目录 什么是TCP协议&#xff1f; 三次握手和四次挥手 TCP通信流程&#xff1a; socket(): bind():绑定函数 listen():监听函数 accept():和客户端建立连接 connect():客户端连接服务器函数 read()/recv():读取函数 write() /send():写入函数 close():关闭连接 为什…

第63篇:美国NSA量子注入攻击的流量特征及检测方法

Part1 前言 大家好&#xff0c;我是ABC_123&#xff0c;公众号正式更名为”希潭实验室”&#xff0c;敬请关注。前不久花时间研究了美国NSA的量子注入攻击手法&#xff0c;并在Hackingclub山东济南站技术沙龙做了分享。对于这种攻击手法部分网友嗤之以鼻&#xff0c;认为是老美…

Linux下的进程状态和 僵尸/孤儿进程的区别

目录 Linux进程的各种状态的表示&#xff1a; R状态的测验&#xff1a; S状态的测验&#xff1a; T状态的测验&#xff1a; 这次讲解一个新指令&#xff1a;kill -l t状态测验&#xff1a;追踪暂停 X状态&#xff1a;死亡状态 Z状态&#xff1a;僵尸状态 进程一直处于…

过孔焊盘~尺寸、间隙、通流能力

过孔焊盘 导通孔&#xff08;via&#xff09;焊盘尺寸 a) 外层焊盘环宽(A)要大于5mil&#xff0c;内层焊盘环宽(A)要大于8mil, 推荐导通孔孔径及焊盘尺寸如下&#xff1a; b) 推荐反焊盘大小尺寸≥过孔焊盘&#xff0b;20MIL。 走线与金属化孔间的最小间隙 推荐的走线距金属…

Roblox 不但不支持 Linux,还屏蔽了 Wine

导读据悉&#xff0c;Roblox 不但不支持 Linux&#xff0c;还屏蔽了 Wine。 Roblox 不但不支持 Linux&#xff0c;还屏蔽了 Wine 多人游戏 Roblox 没有 Linux 原生版本&#xff0c;但之前可以通过 Wine 在 Linux 上运行。不过其最新的反作弊软件专门屏蔽了 Wine 应用&#xff…

XuperChain共建守护者系列藏品震撼发行,最新合成玩法揭秘

5月30日上午10点&#xff0c;百度超级链重磅推出「XuperChain共建守护者系列」藏品。「XuperChain共建守护者徽章系列」自身具有权益&#xff0c;也可与共建徽章系列藏品合成新藏品&#xff0c;玩法多多、福利多多&#xff0c;等你探索&#xff01; 共建守护者系列共计20款藏品…

智能集成接口:I3 ISA-95 的应用

介绍 多年来&#xff0c;使用基于制造运营管理 &#xff08;MOM&#xff09; 的应用程序的制造 IT 顾问试图说服制造商这些类型的应用的高价值。实时 MOM 解决方案是唯一一组能够精确优化工厂日常运营的 IT 应用程序&#xff0c;可为其可用性流程带来可创造的价值&#xff0c;…

《操作系统》期末客观题梳理

《操作系统》复习&#xff08;1-9&#xff09; 文章目录 《操作系统》复习&#xff08;1-9&#xff09;Ⅰ知识点概念第一章操作系统导论第二章进程描述与控制第三章处理机调度死锁第四章进程同步第五章存储器管理第六章虚拟存储器第七章输入输出系统第八章文件管理第九章磁盘存…

探索无限可能:物联网技术的未来应用引领智能化时代

⭐ 物联网技术⭐ 物联网技术的应用⭐ 物联网发展和创新挑战 当我们回顾过去几十年的科技发展&#xff0c;不难发现物联网技术的崛起和蓬勃发展。物联网的概念已经成为当今科技领域的热门话题&#xff0c;它正在以惊人的速度渗透到我们的日常生活中。从智能家居到智能城市&#…

【C++】map容器

更明确的类型重命名规则using 在C语言中typedef将一个变量提升为一种类型&#xff1a; typedef int * p;//p是int*类型//int Array[10];//Array是一个可装10个int类型变量的数组。typedef int Array[10]&#xff1b;//Array是一个可装10个int类型变量的数组的类型//Array arr;…

[golang 微服务] 1.单体式架构以及微服务架构介绍

一.单体架构 在了解微服务之前首先看看单体架构,单体架构在 中小企业内部用的是非常多的&#xff0c;当 业务不复杂&#xff0c; 团队规模不大的时候&#xff0c;单体架构比微服务架构具有 更高的生产率,比如2017年前的淘宝都是单体架构 单体架构的程序部署在单台服务器 这种架…