大数据处理从零开始————8.基于Java构建WordCount项目

news2024/9/30 14:07:35

1.配置项目环境

1.1 配置ide工具

        下载IntelliJ IDEA。

Download IntelliJ IDEA – The Leading Java and Kotlin IDE (jetbrains.com.cn)

        全部下一步,中途遇到需要勾选的全部勾选即可。

        安装可以参考下面文章:

【附安装包】IDEA下载、安装、配置与使用(保姆级教程)-CSDN博客

1.2 配置Maven项目管理工具

1.下载并解压Maven包

(1)官网下载

        官网下载地址:

Maven – Download Apache Maven

        如果是Windows用户使用Maven则选择apache-maven-x.x.x-bin.zip即可。Liunx和MacOS用户则选择apache-maven-x.x.x-bin.tar.zip。

        下载后解压。

(2)百度网盘下载

        百度网盘下载地址:

通过百度网盘分享的文件:apache-maven-3.9.9.zip
链接:https://pan.baidu.com/s/1qOU8feBehWrFYodngivusQ?pwd=82co 
提取码:82co 
--来自百度网盘超级会员V3的分享

        下载后并解压便可以。

         解压成这样便可以。

(3) 配置Maven

        打开文件夹下面的bin文件,并复制地址。

       

        打开windows系统,打开系统属性,点击环境变量,然后打开系统变量,点击打开Path,然后新建将上面复制的地址输入到新建中。然后一步步点击确认,应用。

        然后打开电脑的cmd。输入mvn -version有类似如下的反应便是正确的。

        在进行完上一步后,为了能够成功运行,还要配置setting文件。首先我们要新建一个空的文件夹(任意位置都可以)作为maven的仓库,然后复制好文件夹地址。

        接着打开maven文件夹中conf文件下的setting.xml文件。

        然后找到setting中这个位置加入下面这行标签,标签中替换为你上一步中复制的新建文件夹地址。                

        如果你可以自由连接国外镜像源,那么你便可以不更改setting中的镜像源,不用进行下一步。反之的话,那么你需要更改setting中的镜像源,下面是更改到阿里云镜像。

        在<mirrors>标签中加入下面模块。

2.项目搭建

        首先,打开之前下载的ide工具,点击新建项目。

        在java项目中,名称,组ID,工作ID三个构成了确定的项目位置,可以按照我的去设置相应的项目信息。

        在进行完上一步后,打开项目设置,然后找到项目构建工具打开Maven,然后将Maven主路径设置为你的Maven路径,用户设置文件设置为你的Maven下的conf文件中的settings.xml文件。

        点开右上角位置,打开管理IDE设置下的设置同步,如果禁用的话便点击设置同步,这样你的这个项目的Maven工具设置便同步到了整个ide设置中。

        在完成上一步后,打开项目中的pom.xml文件会有类似如下的基础项目配置,这些内容不要动,如果动了会让项目报错。

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.jyd</groupId>
    <artifactId>WordCount</artifactId>
    <version>1.0-SNAPSHOT</version>

    <properties>
        <maven.compiler.source>8</maven.compiler.source>
        <maven.compiler.target>8</maven.compiler.target>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    </properties>

</project>

        接着我们要添加项目依赖。接着在pom.xml文件末尾处添加下方的项目依赖。添加完之后首先会出现大片红色,这表示这些jar包还没有下载。

    <dependencies>
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>4.13.2</version>
            <!--<scope>test</scope>-->
        </dependency>

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>3.3.3</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>3.3.3</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>3.3.3</version>
        </dependency>

        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <version>8.0.11</version>
        </dependency>
    </dependencies>

        在进行完上一步后,点击下图部分标红部分,刷新并下载yi'lai'ba

        在进行完上面过程后,我们新建一个java文件,这里我起名为WordCount.java,然后我们开始编写代码。下面是完善的代码:

import java.io.IOException;
import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class WordCount {

    /**
     * 编写Mapper类,负责数据的映射(Map).
     * 该类继承自Mapper类,重写 map 方法,主要作用是对输入数据进行预处理,
     * 并将处理后的数据以键值对的形式输出。
     * TokenizerMapper 类负责将输入文本分割成单词,
     * 并为每个单词创建一个出现次数为1的键值对
     */
    public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable> {

        // 静态常量,代表每个单词出现的次数为1
        private final static IntWritable one = new IntWritable(1);
        // Text类型的变量,用于存储解析出的单词。
        private Text word = new Text();

        // map方法接收三个参数:键(在这里未使用)、值(输入的一行文本)和上下文(用于输出数据)。
        public void map(Object key, Text value, Context context) throws IOException, InterruptedException {
            // 使用StringTokenizer对输入的文本行进行分词
            StringTokenizer itr = new StringTokenizer(value.toString());
            while (itr.hasMoreTokens()) {
                word.set(itr.nextToken());
                context.write(word, one);
            }
        }
    }

    /**
     * IntSumReducer对应归约(Reduce)操作,
     * 该类继承自Reducer类,并重写reduce方法,主要作用是对映射阶段输出的数据进行归约处理,
     * 即合并具有相同键的所有值。
     * IntSumReducer 类负责将这些键值对进行归约处理,
     * 计算每个单词的总出现次数,并将结果输出
     */
    public static class IntSumReducer extends Reducer<Text, IntWritable, Text, IntWritable> {

        // IntWritable 类型的变量,用于存储归约后的结果
        private IntWritable result = new IntWritable();

        // reduce方法接收三个参数:键(单词)、值(该单词出现的所有次数)和上下文(用于输出数据)
        public void reduce(Text key, Iterable<IntWritable> values, Context context)
                throws IOException, InterruptedException {
            // 遍历所有值并将它们相加,得到该单词的总出现次数
            int sum = 0;
            for (IntWritable val : values) {
                sum += val.get();
            }
            result.set(sum);
            context.write(key, result);
        }
    }

    /**
     * 入口程序.负责配置MapReduce作业的各种属性,
     * 指定作业的输入和输出路径,并提交作业以等待其完成。
     */
    public static void main(String[] args) throws Exception {
        // 添加配置,内部包含了Hadoop集群的核心配置信息
        Configuration conf = new Configuration();
        // 用上述配置创建一个新的Job对象,并为其指定一个作业名称"word count"。
        Job job = Job.getInstance(conf, "word count");
        // 关联真正的实现单词统计的API
        job.setJarByClass(WordCount.class);
        // 负责映射阶段的处理
        job.setMapperClass(TokenizerMapper.class);
        // Combiner在映射阶段之后运行,用于在数据发送到Reducer之前进行本地归约,
        // 以减少网络传输的数据量。注意,这一步是可选的
        job.setCombinerClass(IntSumReducer.class);
        // 负责归约阶段的处理
        job.setReducerClass(IntSumReducer.class);
        // 设置作业输出的键类型为Text
        job.setOutputKeyClass(Text.class);
        // 设置作业输出的值类型为IntWritable。
        job.setOutputValueClass(IntWritable.class);
        // 添加输入路径,获取要统计文件的位置,这里假设命令行参数args是输入路径.
        FileInputFormat.addInputPath(job, new Path(args[0]));
        // 设置统计结果的输出路径
        FileOutputFormat.setOutputPath(job, new Path(args[1]));
        // 提交作业并等待其完成。如果作业成功完成,则返回0;否则返回1
        System.exit(job.waitForCompletion(true) ? 0 : 1);
    }
}

        然后点击下图中所显示的package按钮来打包。在打包之后,会出现target文件,打开target文件中会有一个jar包。(有些会显示运行成功但是没有target包,这就需要刷新一下ide才能显示。)

        然后启动我们前面配置好的虚拟机,打开虚拟机中的hadoop。

        ./jpsall  查看jps状态

        ./myhadoop.sh start 启动hadoop

        可能你的jar包名字太长太复杂不太容易输入,可以重命名一下,我重命名为wc.jar。可以在你的虚拟机上新建一个文件夹用来储存包。我这里新建了/user/local/data文件夹储存。

        mkdir -p /usr/local/data

        然后通过xttp上传你的jar包到文件夹下。

        下面我们建立一个文件用来测试上述代码。内容可以随意填。

        

cd /user/local/data     #转到文件夹下
ll    #查看是否上传成功
vim cs #创立测试文件
hdfs dfs mkdir /sy   #在hadoop下创建一个sy文件
hdfs dfs -put cs /sy  #将cs上传到/sy中

        接下来我们运行jar包

hadoop jar wc.jar com.jyd.WordCount /sy/cs /csoutput
#运行jar文件   
#wc.jar表示你上传的包   
#com.jyd.WordCount便是的便是包和文件名在下图中已经展示在哪里
#/sy/cs表示待测试文件
#/csoutput表示结果输出文件

        查看运行结果:

hdfs dfs cat /csoutput/part-00000

        

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2179809.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Chris,36岁勇辞管理,重回开发:一场高龄远程工作者有违常理的自我追寻。

这是《开发者说》的第18期&#xff0c;本期我们邀请的优秀远程开发者是Chris&#xff0c;同时他也是位知名博主&#xff1a;高龄程序员。 36岁&#xff0c;从世人艳羡的高管回到开发。诧异、不解、质疑……充斥不绝。是自绝后路&#xff0c;还是东山再起&#xff1f; 07年本科…

RocksDB Compaction的常见问题

1 概述 TiKV 底层存储引擎使用 RocksDB &#xff0c;RocksDB 是一个基于 LSM tree 的单机嵌入式数据库&#xff0c; 对于LSM Tree 来说compaction是个非常重要的操作&#xff0c;本文对TiKV中涉及的compaction相关内容进行了整理总结。 2 为什么需要 compaction ? LSM Tree 通…

Oracle数据恢复—异常断电导致Oracle数据库报错的数据恢复案例

Oracle数据库故障&#xff1a; 机房异常断电后&#xff0c;Oracle数据库启库报错&#xff1a;“system01.dbf需要更多的恢复来保持一致性&#xff0c;数据库无法打开”。数据库没有备份&#xff0c;归档日志不连续。用户方提供了Oracle数据库的在线文件&#xff0c;需要恢复zxf…

嵌入式linux系统中库函数如何提高效率

工作中总是会用到各种库,比如本地使用静态库,下载源上的动态库;面试时也会经常性的问到,下面我做了一系列的总结,希望大家可以快速掌握各种库,以及库的制作和使用。 一、什么是库及其作用 库(英文为library)是一组预先编写好的代码、函数、类和其他程序组件的集合…

“迷雾深渊”炮击图设计

python尝试C题目&#xff0c;ai查错审码还写“代码解读”和学习总结。 (笔记模板由python脚本于2024年09月29日 10:51:58创建&#xff0c;本篇笔记适合喜欢python&#xff0c;鼓捣算法的coder翻阅) 【学习的细节是欢悦的历程】 Python 官网&#xff1a;https://www.python.org/…

OpenWrt学习(四)

分区、外网、OPKG 了解分区 在Linux系统中对闪存类存储器是采用MTD(内存技术设备)类设备驱动实现的,MTD是用于访问内存类设备(ROM、Flash)的Linux驱动子系统。它的主要目的是使Flash闪存类设备更容易被访问,为此它在硬件和上层提供了一个抽象的接口使得在操作系统下我们…

基于 ESP-AT 固件从外部服务器获取文件,使用分段续传的方式

**可使用 ATHTTPCGET 指令获取 HTTP\HTTPS 的资源&#xff0c;将返回资源的 Size 和 Data ** AT 指令序列如下&#xff1a; ATRESTOREATCWMODE1 //设置 WiFi Station 模式ATCWJAP"cc2.4","12345678" //连接 WiFi ATHTTPCHEAD…

前端 vue3 对接科大讯飞的语音在线合成API

主要的功能就是将文本转为语音&#xff0c;可以播放。 看了看官方提供的demo&#xff0c;嗯....没看懂。最后还是去网上找的。 网上提供的案例&#xff0c;很多都是有局限性的&#xff0c;我找的那个他只能读取第一段数据&#xff0c;剩下的不读取。 科大讯飞的接口&#xf…

中国一定赞!北京华联BHGMall献礼祖国75周年华诞,创新践行促消费体验再升级

北京华联BHGMall [华联股份(000882)] 作为零售行业核心力量&#xff0c;以广大消费者为核心&#xff0c;不断提升自身竞争力、优化服务、以实惠的价格优质的品牌组合创新的营销活动&#xff0c;带来全新的购物消费体验。 让利于民&#xff0c;以缤纷活动点燃国庆热烈氛围 金秋…

OpenAI创始成员Andrej Karpathy:这才是技术之美

来源 | 机器之心 技术应该是什么样子&#xff1f; 我们知道乔布斯有「为改变混乱繁杂而生的现代简约主义」的设计理念。所以苹果提供的科技产品都是简洁的。可斯人已逝&#xff0c;如今我们身边的科技产品似乎又进入了复杂与不实用的怪圈之中。 近日&#xff0c;知名 AI 领域学…

【教程】57帧! Mac电脑流畅运行黑神话悟空

转载请注明出处&#xff1a;小锋学长生活大爆炸[xfxuezhagn.cn] 如果本文帮助到了你&#xff0c;欢迎[点赞、收藏、关注]哦~ 1、先安装CrossOver。网上有许多和谐版&#xff0c;可自行搜索。&#xff08;pd虚拟机里运行黑神话估计够呛的&#xff09; 2、运行CrossOver&#xf…

VMware ESXi 8.0U3b macOS Unlocker OEM BIOS 2.7 Dell HPE 定制版 9 月更新发布

VMware ESXi 8.0U3b macOS Unlocker & OEM BIOS 2.7 Dell HPE 定制版 9 月更新发布 VMware ESXi 8.0U3b macOS Unlocker & OEM BIOS 2.7 标准版和厂商定制版 ESXi 8.0U3 标准版&#xff0c;Dell (戴尔)、HPE (慧与)、Lenovo (联想)、IEIT SYSTEMS (浪潮信息)、Cisco …

在使用表格识别工具时,如何确保识别的准确性?

在使用表格识别工具时&#xff0c;确保识别准确性的关键在于以下几个方面&#xff1a; 1.图像质量&#xff1a;确保扫描或拍摄的图像清晰&#xff0c;无遮挡、无反光、无阴影&#xff0c;并且文字清晰可辨 。 2.预处理图像&#xff1a;在图像送入OCR识别之前&#xff0c;进行…

Linux —— Socket编程(三)

一、本章重点 1. tcp服务器实现思路&#xff0c;进一步了解和总结相关的接口 2. 了解日志和守护进程 二、tcp服务器核心思路 tcp版的服务器与udp的不同在于&#xff0c;udp是面向数据报传输数据&#xff0c;在数据传输中不需要建立与客户端的链接&#xff0c;直接用recvfrom…

GEE数据集:1996 年到 2020 年全球红树林观测数据集(JAXA)(更新)

目录 简介 数据集说明 数据集 代码 代码链接 结果 引用 许可 网址推荐 0代码在线构建地图应用 机器学习 简介 全球红树林观测 这项研究使用了日本宇宙航空研究开发机构&#xff08;JAXA&#xff09;提供的 L 波段合成孔径雷达&#xff08;SAR&#xff09;全球mask…

银河麒麟服务器:更新软件源

银河麒麟服务器&#xff1a;更新软件源 1、使用场景2、操作步骤3、注意事项 &#x1f490;The Begin&#x1f490;点点关注&#xff0c;收藏不迷路&#x1f490; 1、使用场景 当需要安装最新软件或修改软件源配置后&#xff0c;需更新软件源以获取最新软件包信息。 2、操作步…

<<迷雾>> 第5章 从逻辑学到逻辑电路(2)--非门 示例电路

一个应用非门的例子 info::操作说明 鼠标单击开关切换开合状态 primary::在线交互操作链接 https://cc.xiaogd.net/?startCircuitLinkhttps://book.xiaogd.net/cyjsjdmw-examples/assets/circuit/cyjsjdmw-ch05-05-not-gate-sample.txt 原图 一个自带电源的常闭触点继电器属于…

基于定制开发与2+1链动模式的商城小程序搭建策略

摘要&#xff1a;本文探讨商城小程序的搭建策略&#xff0c;对比自主组建团队和第三方开发两种方式&#xff0c;强调以第三方开发模式为主的优势。阐述在第三方开发模式下&#xff0c;结合定制开发和21链动模式&#xff0c;如何搭建一款有助于企业商业模式创新与智能商业升级的…

化工企业大文件传输软件该怎么选?

化工行业里&#xff0c;数据的迅速、安全传递对于企业的研发、生产和供应链管理是至关重要的。随着数据量的不断增长和网络环境的日益复杂&#xff0c;传统的文件传输方法已经无法满足化工企业的需求。接下来&#xff0c;我将带领大家一起探讨化工企业在进行大文件传输时所面临…

linux驱动编程——标准、混杂、中断

一、优化——自动申请设备号、自动创建节点 设备号类型&#xff1a;①主设备号 ②子设备号 类型&#xff1a;unsigned int <>dev_t 12 major &#xff08;主设备号&#xff09; 20 minor &#xff08;子设备号&#xff09;<区…