MapReduce案例-TopN(倒序排序)

news2024/11/26 21:37:05

文章目录

  • MapReduce案例-TopN(倒序排序)
    • 一、案例分析
      • 1、TopN分析法介绍
      • 2、案例需求及分析
    • 二、MapReduce 倒序排序代码实现
      • 1、准备数据文件
        • (1) 在虚拟机上创建文本文件
        • (2) 上传文件到HDFS指定路径
      • 2、map阶段实现
        • (1) 创建前N成绩映射器类
      • 3、Reduce阶段实现
      • 4、Driver程序主类实现
      • 5、运行前N驱动器类,查看结果

MapReduce案例-TopN(倒序排序)

一、案例分析

1、TopN分析法介绍

TopN分析法是指从研究对象中按照某一个指标进行倒序或正序排列,取其中所需的N个数据,并对这N个数据进行重点分析的方法。

2、案例需求及分析

  • 现假设有数据文件num.txt,现要求使用MapReduce技术提取上述文本中最大的5个数据,并最终将结果汇总到一个文件中。
  • 先设置MapReduce分区为1,即ReduceTask个数一定只有一个。我们需要提取TopN,即全局的前N条数据,不管中间有几个MapReduce,最终只能有一个用来汇总数据。
  • Map阶段,使用TreeMap数据结构保存TopN的数据,TreeMap默认会根据其键的自然顺序进行排序,也可根据创建映射时提供的Comparator进行排序,其firstKey()方法用于返回当前集合最小值的键。
  • Reduce阶段,将Map阶段输出数据进行汇总,选出其中的TopN数据,即可满足需求。这里需要注意的是,TreeMap默认采取正序排列,需求是提取5个最大的数据,因此要重写Comparator类的排序方法进行倒序排序.

二、MapReduce 倒序排序代码实现

1、准备数据文件

启动hadoop服务
在这里插入图片描述

(1) 在虚拟机上创建文本文件

创建topn目录,在里面创建num.txt文件
在这里插入图片描述

(2) 上传文件到HDFS指定路径

创建/topn/input目录,执行命令:hdfs dfs -mkdir -p /topn/input
在这里插入图片描述
将文本文件num.txt,上传到HDFS/topn/input目录
在这里插入图片描述

2、map阶段实现

使用IntelliJ开发工具创建Maven项目TopN,并且新建hsl.aex.mr包,在该路径下编写自定义MapperTopNMapper,主要用于将文件中的每行数据进行切割提取,并把数据保存到TreeMap中,判断TreeMap是否大于5如果大于5就需要移除最小的数据TreeMap保存了当前文件最大5条数据后,再输出到Reduce阶段。

(1) 创建前N成绩映射器类

创建`hsl.aex.mr`包,在包里创建`TopNScoreMapper`类
package hsl.aex.mr;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

import java.util.TreeMap;

public class TopNMapper extends Mapper<LongWritable,Text,NullWritable,IntWritable>{
    private TreeMap<Integer, String> repToRecordMap = new TreeMap<Integer, String>();

    // <0,10 3 8 7 6 5 1 2 9 4>
    // <xx,11 12 17 14 15 20>
    @Override
    public void map(LongWritable key, Text value, Context context) {
        String line = value.toString();
        String[] nums = line.split(" ");
        for (String num : nums) {
            repToRecordMap.put(Integer.parseInt(num), " ");
            if (repToRecordMap.size() > 5) {
                repToRecordMap.remove(repToRecordMap.firstKey());
            }
        }
    }

    @Override
    protected void cleanup(Context context) {
        for (Integer i : repToRecordMap.keySet()) {
            try {
                context.write(NullWritable.get(), new IntWritable(i));
            } catch (Exception e) {
                e.printStackTrace();
            }
        }
    }

}

3、Reduce阶段实现

根据Map阶段的输出结果形式,同样在hsl.aex.mr包下,自定义ReducerTopNReducer,主要用于编写TreeMap自定义排序规则,当需求取最大值时,只需要在compare()方法中返回正数即可满足倒序排列,reduce()方法依然是要满足时刻判断TreeMap中存放数据是前五个数,并最终遍历输出最大的5个数。
创建前N归并器类
hsl.aex.mr包里创建TopNReducer

package hsl.aex.mr;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;
import java.util.Comparator;
import java.util.TreeMap;

public class TopNReducer extends Reducer<NullWritable,IntWritable,NullWritable,IntWritable>{
    private TreeMap<Integer, String> repToRecordMap = new TreeMap<Integer, String>(new Comparator<Integer>() {
        /**
         * 谁大排后面
         *
         * @param a
         * @param b
         * @return 一个整数
         */
        public int compare(Integer a, Integer b) {
            return b - a;
        }
    });

    public void reduce(NullWritable key, Iterable<IntWritable> values, Context context)
            throws IOException, InterruptedException {
        for (IntWritable value : values) {
            repToRecordMap.put(value.get(), " ");
            if (repToRecordMap.size() > 5) {
                repToRecordMap.remove(repToRecordMap.firstKey());
            }
        }

        for (Integer i : repToRecordMap.keySet()) {
            context.write(NullWritable.get(), new IntWritable(i));
        }
    }

}

4、Driver程序主类实现

编写MapReduce程序运行主类TopNDriver,主要用于设置MapReduce工作任务的相关参数,对HDFS/topn/input目录下的源文件求前N数据,并将结果输入到HDFS/topn/output目录下。
创建前N驱动器类
hsl.aex.mr包里创建TopNDriver

package hsl.aex.mr;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.net.URI;
public class TopNDriver {
    public static void main(String[] args) throws Exception {
        // 创建配置对象
        Configuration conf = new Configuration();
        // 设置数据节点主机名属性
        conf.set("dfs.client.use.datanode.hostname", "true");

        // 获取作业实例
        Job job = Job.getInstance(conf);

        // 设置作业启动类
        job.setJarByClass(TopNDriver.class); //这几个

        // 设置Mapper类
        job.setMapperClass(TopNMapper.class);
        // 设置map任务输出键类型
        job.setMapOutputKeyClass(NullWritable.class);//类型的和Mapper里面的对应起来
        // 设置map任务输出值类型
        job.setMapOutputValueClass(IntWritable.class);

        // 设置Reducer类
        job.setReducerClass(TopNReducer.class);
        // 设置reduce任务输出键类型
        job.setOutputKeyClass(Text.class); //类型的和Reduce里面的对应起来
        // 设置reduce任务输出值类型
        job.setOutputValueClass(NullWritable.class);

        // 定义uri字符串
        String uri = "hdfs://master:9000";
        // 创建输入目录
        Path inputPath = new Path(uri + "/topn/input/num.txt");
        // 创建输出目录
        Path outputPath = new Path(uri + "/topn/output");

        // 获取文件系统
        FileSystem fs = FileSystem.get(new URI(uri), conf);
        // 删除输出目录
        fs.delete(outputPath, true);

        // 给作业添加输入目录
        FileInputFormat.addInputPath(job, inputPath);
        // 给作业设置输出目录
        FileOutputFormat.setOutputPath(job, outputPath);

        // 等待作业完成
        job.waitForCompletion(true);

        // 输出统计结果
        System.out.println("======统计结果======");
        FileStatus[] fileStatuses = fs.listStatus(outputPath);
        for (int i = 1; i < fileStatuses.length; i++) {
            // 输出结果文件路径
            System.out.println(fileStatuses[i].getPath());
            // 获取文件输入流
            FSDataInputStream in = fs.open(fileStatuses[i].getPath());
            // 将结果文件显示在控制台
            IOUtils.copyBytes(in, System.out, 4096, false);
        }
    }

}

在这里插入图片描述

5、运行前N驱动器类,查看结果

可以看到排名前五的,
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/88795.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

深入理解React中的虚拟DOM(源码+分析)

文章目录引文一、前端技术的发展历史1.1 前后端不分离1.1.2 静态网站1.1.3 动态网站1.2 前后端分离1.2.1 jQuery时代1.2.2 angularjs时代1.2.3 react与vue1.3 总结二、什么是虚拟dom2.1 概念2.2 react中的虚拟dom三、react虚拟DOM的优势是什么3.1 局部更新DOM的机制3.2 浏览器兼…

shell编程基础

重定向输入和输出 输出重定向 bash shell用大于号(>)来完成这项功能&#xff1a;command > outputfile 如果不想覆盖文件原有内容&#xff0c;而是想要将命令的输出追加到已有文件中&#xff0c;比如你正 在创建一个记录系统上某个操作的日志文件。在这种情况下&#xf…

postgresql备份恢复

一、逻辑备份与恢复 pg_dump -d test >/tmp/test.sql -p 5433 --备份test这个数据库 psql -p 5433 </tmp/test.sql --恢复 pg_dump > /tmp/full.sql -p 5433 --备份整库 psql </tmp/full.sql -p 5433 --恢复 二、物理备份与恢复 1.开启归档 &#xf…

新人小白想做跨境电商,怎么上手比较稳妥一点呢?

近年来&#xff0c;随着互联网的发展&#xff0c;国内外商业贸易越来越顺畅&#xff0c;直播电商的普及也带动了大量相关产业链的发展&#xff0c;其中跨境电商是尤为突出的一个。虽然国内做跨境电商的企业很多&#xff0c;但还是有很多新人争相进入市场。所以今天米贸搜就和大…

Flume

目录1、Flume简要描述2、Flume网址3、Flume的组成架构3.1、Agent3.2、Source3.3、Channel3.4、Sink3.5、Event4、拓扑结构5、运行原理6、简要安装7、开发案例7.1、监控端口数据官方案例1&#xff09;安装telnet工具2&#xff09;判断44444端口是否被占用3&#xff09;创建Flume…

线索二叉树构建和遍历

线索二叉树 文章目录线索二叉树引出线索解决方案(以中序线索树为例)引论:策略&#xff1a;问题1&#xff1a;♥ 对策线索二叉树的节点类型定义线索化二叉树♥ 线索化算法♥ 建立中序线索二叉树的算法♥ 算法实现遍历线索化二叉树引言:♥ 遍历思路(中序遍历举例)&#xff1a;♥ …

产品设计:Material Design 学习笔记一

​自从Material Design发布以来&#xff0c;我就在一直收集相关素材与资源&#xff0c;研究别人的作品。这套设计风格非常鲜明&#xff0c;带有浓郁的Google式严谨和理性哲学&#xff0c;深得我心。实际上&#xff0c;光是研究素材和别人作品&#xff0c;就能发现一些明显的规律…

【Docker】虚悬镜像(Dangling Image)介绍和处理方法

本期目录1. 虚悬镜像介绍2. 查看本地所有虚悬镜像3. 删除全部虚悬镜像4. 人为构建虚悬镜像专栏精选文章1. 虚悬镜像介绍 虚悬镜像 (Dangling Image) 指的是仓库名 (镜像名) 和标签 TAG 都是 <none> 的镜像。如下图所示。 在实际开发中&#xff0c;在构建或者删除镜像时出…

【案例实践】气象数据相关分析及使用系列:如何使用格点数据分析中国积温变化技术应用

【视频教程】气象数据相关分析及使用系列课程&#xff1a;如何使用格点数据分析中国积温变化技术应用https://mp.weixin.qq.com/s?__bizMzAxNzcxMzc5MQ&mid2247519871&idx8&sn5ccca4436825438ce253ab7455437259&chksm9be3916fac94187970353477a4c191cdb6d499d…

[LINUX]基本权限

&#x1f941;作者&#xff1a; 华丞臧. &#x1f4d5;​​​​专栏&#xff1a;【LINUX】 各位读者老爷如果觉得博主写的不错&#xff0c;请诸位多多支持(点赞收藏关注)。如果有错误的地方&#xff0c;欢迎在评论区指出。 推荐一款刷题网站 &#x1f449; LeetCode刷题网站 文…

web前端网页设计与制作——华夏第一县HTML+CSS+JavaScript

家乡旅游景点网页作业制作 网页代码运用了DIV盒子的使用方法&#xff0c;如盒子的嵌套、浮动、margin、border、background等属性的使用&#xff0c;外部大盒子设定居中&#xff0c;内部左中右布局&#xff0c;下方横向浮动排列&#xff0c;大学学习的前端知识点和布局方式都有…

【C++】C++入门

屏幕前的你&#xff0c;一起加油啊&#xff01;&#xff01;&#xff01; 文章目录一、命名空间&#xff08;namespace&#xff09;1.命名空间的定义&#xff08;::域作用限定符&#xff09;2.命名空间的使用&#xff08;三种使用方式&#xff09;二、C输入&输出&#xff…

Maven pom.xm javafx-maven-plugin打包javafx 应用及调试

1、添加 javafx-maven-plugin到 plugin内 <plugin><groupId>com.zenjava</groupId><artifactId>javafx-maven-plugin</artifactId><version>8.8.3</version><configuration><!-- 启动类 --><mainClass>com.test.d…

【春招必备】Java面试题,面试加分项,从jvm层面了解线程的启动和停止

前言 Spring 作为一个轻量级的 Java 开发框架&#xff0c;将面向接口的编程思想贯穿整个 Java 系统应用&#xff0c;因此在 Java 面试中常被提。本次介绍的主要是解析面试过程中如果从源码角度分析常见的问题&#xff0c;为了方便大家阅读&#xff0c;小编这里还整理了一份微服…

零拷贝技术面试题

文章目录1 零拷贝的介绍2 传统的IO的执行流程3 零拷贝涉及的技术点3.1 内核空间和用户空间3.2 用户态和内核态3.3 DMA技术4 零拷贝实现的几种方式4.1 mmapwrite4.2 sendfile4.3 sendfileDMA scatter/gather实现的零拷贝5 java提供的零拷贝方式5.1 Java NIO对mmap的支持5.2 Java…

抖音快手如何轻松接入虚拟人直播

在上一篇文章零基础开启元宇宙——创建虚拟形象中&#xff0c;我们实现了创建虚拟形象&#xff0c;接下来我们可以利用虚拟形象“为所欲为”。今天我们利用虚拟形象在短视频平台如快手、抖音中直播&#xff0c;对于不希望露脸的主播们这是可是一大利器呀&#xff01;话不多说&a…

【Unity项目实战】手把手教学:飞翔的小鸟(5)背景滚动

承接上一篇&#xff1a;【Unity项目实战】手把手教学&#xff1a;飞翔的小鸟&#xff08;4&#xff09;文本添加&#xff0c;我们已经使得主角小鸟接触到地面后跳转到Game Over状态&#xff0c;接下来我们将继续往下&#xff0c;讲解得分机制。 一、重新进入游戏 根据上篇最后…

网络流量回溯分析助力企业实现高效率运维(一)

背景 汽车配件电子图册系统是某汽车集团的重要业务系统。业务部门反映&#xff0c;汽车配件电子图册调用图纸时&#xff0c;出现访问慢现象。 某汽车总部已部署NetInside流量分析系统&#xff0c;使用流量分析系统提供实时和历史原始流量。本次分析重点针对汽车配件电子图册系…

[附源码]Node.js计算机毕业设计二手书交易软件设计与实现Express

项目运行 环境配置&#xff1a; Node.js最新版 Vscode Mysql5.7 HBuilderXNavicat11Vue。 项目技术&#xff1a; Express框架 Node.js Vue 等等组成&#xff0c;B/S模式 Vscode管理前后端分离等等。 环境需要 1.运行环境&#xff1a;最好是Nodejs最新版&#xff0c;我…

数据技术之数据挖掘

第7章 数据挖掘 1.什么是数据挖掘 数据挖掘(Data Mining)就是从大量的数据中&#xff0c;提取隐藏在其中的&#xff0c;事先不知道的、但潜在有用的信息的过程。数据挖掘的目标是建立一个决策模型&#xff0c;根据过去的行动数据来预测未来的行为。 2.阿里数据挖掘平台 阿里…