大数据之Hadoop

news2024/9/27 12:14:38

文章目录

  • 一、大数据概论
    • 1、大数据概念
    • 2、大数据的特点
    • 3、大数据应用场景
    • 4、大数据部门的业务流程分析
    • 5、大数据部门组织结构(重点)
  • 二、从Hadoop框架讨论大数据生态
    • 1、什么是Hadoop
    • 2、Hadoop发展历史
    • 3、Hadoop三大发行版本
      • 1.Apache Hadoop
      • 2.Cloudera Hadoop
      • 3.Hortonworks Hadoop
    • 4、Hadoop的优势(4高)
    • 5、Hadoop组成(面试重点)
      • 1、Hadoop1.x和Hadoop2.x区别
      • 2、HDFS架构概述
      • 3、YARN架构概述
      • 4、MapReduce架构概述
    • 6、大数据技术生态体系
    • 7、推荐系统项目框架
  • 三、Hadoop运行环境搭建(开发重点)
    • 1、虚拟机环境准备
    • 2、安装JDK
      • 1、将jdk上传到software文件夹下
      • 2、然后解压到module下
      • 3、配置jak环境变量:
      • 4、让修改后的文件生效
      • 5、测试JDK是否安装成功
    • 3、安装Hadoop
      • 0、Hadoop下载地址:
      • 1、将hadoop-2.7.2.tar.gz压缩包导入到opt目录下面的software文件下
      • 2、解压安装文件到/opt/module下面
      • 3、将Hadoop添加到环境变量
      • 4、让修改的文件生效
      • 5、测试是否安装成功
      • 6. 重启(如果Hadoop命令不能用再重启)
    • 4、Hadoop目录结构
      • 1、查看Hadoop目录结构
      • 2、重要目录
  • 四、Hadoop运行模式
    • 1、本地运行模式
      • 1 官方Grep案例
      • 2、官方WordCount案例
    • 2、伪分布式运行模式
      • 1、启动HDFS并运行MapReduce程序
        • 1、分析
        • 2.、执行步骤
          • 1、配置集群
          • 2、启动集群
          • 3、查看集群
          • 4、集群的操作
          • 5、查看产生的Log日志
        • 3、NameNode格式化注意事项
      • 2、启动YARN并运行MapReduce程序
        • 1.、分析
        • 2.、执行步骤
          • 1、配置集群
          • 2、启动集群
          • 3、集群操作
      • 3、配置历史服务器
          • 1、配置mapred-site.xml
          • 2、启动历史服务器
          • 3、查看历史服务器是否启动
          • 4、查看JobHistory
      • 4、配置日志的聚集
        • 1、关闭NodeManager 、ResourceManager和HistoryManager
        • 2、配置yarn-site.xml
        • 3、开启NodeManager 、ResourceManager和HistoryManager
        • 4、删除HDFS上已经存在的输出文件
        • 5、执行WordCount程序
        • 6、查看日志,
      • 5、配置文件说明
          • 1、默认配置文件:
          • 2、自定义配置文件:
    • 3、完全分布式运行模式(开发重点)
        • 1、分析:
        • 2、虚拟机准备(三台)
        • 3、编写集群分发脚本xsync
          • 1、scp(secure copy)安全拷贝
          • 2、 rsync 远程同步工具
          • 3、xsync集群分发脚本
        • 4、集群配置
          • 1、集群部署规划
          • 2、配置集群
          • 3、在集群上分发配置好的Hadoop配置文件
          • 4、查看文件分发情况
          • 5、集群单点启动
          • 6、SSH无密登录配置
            • 1、配置ssh
            • 2、无密钥配置
            • 3、.ssh文件夹下(~/.ssh)的文件功能解释
          • 7、群起集群
          • 8、集群启动/停止方式总结
          • 9、crontab定时任务设置
          • 10、 集群时间同步
  • 五、Hadoop编译源码(面试重点)
    • 1 前期准备工作
      • 1. CentOS联网
      • 2. jar包准备(hadoop源码、JDK8、maven、ant 、protobuf)
    • 2 jar包安装
      • 1.JDK解压、配置环境变量 JAVA_HOME和PATH,验证java-version(如下都需要验证是否配置成功)
      • 2.Maven解压、配置 MAVEN_HOME和PATH
      • 3.ant解压、配置 ANT _HOME和PATH
      • 4.安装 glibc-headers 和 g++ 命令如下
      • 5.安装make和cmake
      • 6.解压protobuf ,进入到解压后protobuf主目录,/opt/module/protobuf-2.5.0,然后相继执行命令
      • 7.安装openssl库
      • 8.安装 ncurses-devel库
    • 3 编译源码
      • 1. 解压源码到/opt/目录
      • 2. 进入到hadoop源码主目录
      • 3. 通过maven执行编译命令
      • 4. 成功的64位hadoop包在/opt/hadoop-2.7.2-src/hadoop-dist/target下
      • 5. 编译源码过程中常见的问题及解决方案
        • (1)MAVEN install时候JVM内存溢出
        • (2)编译期间maven报错。可能网络阻塞问题导致依赖库下载不完整导致,多次执行命令(一次通过比较难):
        • (3)报ant、protobuf等错误,插件下载未完整或者插件版本问题,最开始链接有较多特殊情况,同时推荐
  • 各个接口的作用


一、大数据概论

1、大数据概念

在这里插入图片描述
常规软件工具:mysql,ssm等
在这里插入图片描述

大数据的理解:主要解决海量数据的存储和海量数据的分析计算问题

2、大数据的特点

1、Volume(大量):数据量非常庞大大量
2、Velocity(高效):数据量产生的速度非常快
3、Variety(多样):数据的多种多样
4、Value(低价值密度)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3、大数据应用场景

1、物流仓库:大数据分析系统助力商家精细化运营、提升销量、节约成本。
2、零售:分析用户消费习惯,为用户购买商品提供方便,从而提升商品销量
经典案例:子尿布+啤酒
3、旅游:深度结合大数据能与旅游行业需求,共建旅游产业智慧管理、智慧服务和智慧营销的未来
4、商品广告推荐:给用户推荐可能喜欢的商品
5、保险:海量数据挖掘及风险预测,助力保险行业精准营销,提升精细化定价能力
6、金融:多维度体现用户特征,帮助金融机构推荐优质客户,防范欺诈风险
7、房产:大数据全面助力房地产行业,打造精准投策与营销,选出更合适的地,建造更合适的楼卖给更合适的人。
8、人工智能

4、大数据部门的业务流程分析

在这里插入图片描述

5、大数据部门组织结构(重点)

大数据部门组织结构,适用于大中型企业
在这里插入图片描述

二、从Hadoop框架讨论大数据生态

1、什么是Hadoop

1)Hadoop是一个有Apache基金会所开发的分布式系统的基础架构
2)主要解决:海量数据的存储和海量数据的分析计算问题
3)广义上来说,Hadoop通常是只一个更广泛的概念----Hadoop生态圈
在这里插入图片描述

2、Hadoop发展历史

在这里插入图片描述
在这里插入图片描述
10)Hadoop就此诞生并迅速发展,标志着大数据时代来临

3、Hadoop三大发行版本

Hadoop三大发行版本:Apache、Cloudera、Hortonworks。
个版本特点:
Apache版本最原始(最基础)的版本,对于入门学习最好。apache版
Cloudera在大型互联网企业中用的较多。cdh版
Hortonworks文档较好。

1.Apache Hadoop

官网地址:http://hadoop.apache.org/releases.html
下载地址:https://archive.apache.org/dist/hadoop/common/

2.Cloudera Hadoop

官网地址:https://www.cloudera.com/downloads/cdh/5-10-0.html
下载地址:http://archive-primary.cloudera.com/cdh5/cdh/5/

3.Hortonworks Hadoop

官网地址:https://hortonworks.com/products/data-center/hdp/
下载地址:https://hortonworks.com/downloads/#data-platform

4、Hadoop的优势(4高)

  1. 高可靠性:Hadoop底层维护多个数据副本,所以即使Hadoop某个计算元素或存储出现故障,也不会导致数据的丢失。
  2. 高扩展性:在集群间分配任务数据,可方便的扩展数以千计的节点。
  3. 高效性:在MapReduce的思想下,Hadoop是并行工作的,以加快任务处理速度。
  4. 高容错性:能够自动将失败的任务重新分配

5、Hadoop组成(面试重点)

1、Hadoop1.x和Hadoop2.x区别

在这里插入图片描述

2、HDFS架构概述

HDFS(Hadoop Distributed File System)的架构概述,如图2-23所示。
1)NameNode(mn): 存储文件的元数据,如文件名,文件目录结构,文件属性(生成时间、副本数文件权限),以及每个文件的块列表和块所在的DataNode等.(相当于目录)
2)DataNode(dn):在本地文件系统存储问卷块数据,以及块数据的校验和(相当于目录对应的数据)
3)Secondary NameNode(2nn):用来监控HDFS状态的辅助后台程序,每隔一段时间获取HDFS元素的快照(辅助NameNode工作的)

3、YARN架构概述

在这里插入图片描述
节点:等于服务器
ResourceManager:相当于服务器节点
client客户端发送请求到ResourceManager节点,ResourceManager监控nodeManager,启动或监控ApplicationMaster(集群上运行的任务或job),任务或者job由App Mstr来管理,
ApplicationMaster相当于对集群上某个资源的分配和调度
Container:主要为每个任务或job服务,因为每个job都需要内存、cpu、磁盘、网络等

4、MapReduce架构概述

MapReduce将计算过程分为两个阶段:Map和Reduce,如图2-25所示
1)Map阶段并行处理输入数据
2)Reduce阶段对Map结果进行汇总
在这里插入图片描述

6、大数据技术生态体系

在这里插入图片描述
图中涉及的技术名词解释如下:
1)Sqoop:Sqoop是一款开源的工具,主要用于在Hadoop、Hive与传统的数据库(MySql)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
2)Flume:Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
3)Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:

  • (1)通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
  • (2)高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。
  • (3)支持通过Kafka服务器和消费机集群来分区消息。
  • (4)支持Hadoop并行数据加载。

4)Storm:Storm用于“连续计算”,对数据流做连续查询,在计算时就将结果以流的形式输出给用户。适合于非结构化数据存储的数据库。
5)Spark:Spark是当前最流行的开源大数据内存计算框架。可以基于Hadoop上存储的大数据进行计算。
6)Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统。
7)Hbase:HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。
8)Hive:Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
10)R语言:R是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个自由、免费、源代码开放的软件,它是一个用于统计计算和统计制图的优秀工具。
11)Mahout:Apache Mahout是个可扩展的机器学习和数据挖掘库。
12)ZooKeeper:Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。

7、推荐系统项目框架

在这里插入图片描述
文件日志获取tomcat的访问日志,通过Flumer日志收集,保存到HDFS或HBase非关系型数据库进行文件存储,然后通过YARN资源管理对任务进行资源分配(内存、CPU、磁盘等)

三、Hadoop运行环境搭建(开发重点)

1、虚拟机环境准备

  1. 克隆虚拟机

  2. 修改克隆虚拟机的静态IP
    vi /etc/udev/rules.d/70-persistent-net.rules
    配置如下:在这里插入图片描述
    vi /etc/sysconfig/network-scripts/ifcfg-eth0
    配置如下
    在这里插入图片描述

  3. 修改主机名
    vi /etc/sysconfig/network
    修改HOSTNAME的值
    在这里插入图片描述
    vi /etc/hosts检查所有的主机名称
    在这里插入图片描述
    reboot重启服务(重启虚拟机)

  4. 关闭防火墙

  5. 创建cy用户
    #adduser cy
    //添加一个名为cy的用户
    #passwd cy修改密码命令
    Changing password for user cy
    New UNIX password: //在这里输入新密码
    Retype new UNIX password: //再次输入新密码
    passwd: all authentication tokens updated successfully.

  6. 配置cy用户具有root权限(详见《尚硅谷大数据技术之Linux》)
    vi /etc/sudoers
    在这里插入图片描述
    :wq! 是强制保存退出

  7. 在/opt目录下创建文件夹
    (1)在/opt目录下创建module(放解压的应用程序)、software(放压缩包)文件夹
    在这里插入图片描述
    然后输入密码即可创建成功
    在这里插入图片描述
    如果显示在root下则用下面方法修改
    (2)修改module、software文件夹的所有者cd
    sudo chown cy:cy module/ software/ 效果如下:
    在这里插入图片描述
    注意: 如果没有权限创建,则在root用户登录的情况,赋予opt目录给cy这个用户权限 示例代码:
    #将目录/opt 及其下面的所有文件、子目录的owner用户改成 cy
    chown -R cy:cy /opt
    #给目录opt设置权限
    chmod 760 /opt

2、安装JDK

1、将jdk上传到software文件夹下

2、然后解压到module下

tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/,切换到modlue文件夹下,cd jdk1.8.0_144 然后ll
在这里插入图片描述

3、配置jak环境变量:

打开profile文件:
vi /etc/profile
在profile文件末尾添加JDK路径:(shitf+g)
在这里插入图片描述
##JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH= P A T H : PATH: PATH:JAVA_HOME/bin

4、让修改后的文件生效

然后source /etc/profile

5、测试JDK是否安装成功

java -version
如:
在这里插入图片描述

3、安装Hadoop

0、Hadoop下载地址:

https://archive.apache.org/dist/hadoop/common/hadoop-2.7.2/

1、将hadoop-2.7.2.tar.gz压缩包导入到opt目录下面的software文件下

2、解压安装文件到/opt/module下面

tar -zxvf hadoop-2.7.2.tar.gz -C /opt/module/

3、将Hadoop添加到环境变量

在profile文件末尾添加JDK路径:(shitf+g)
##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin
export PATH= P A T H : PATH: PATH:HADOOP_HOME/sbin
在这里插入图片描述

4、让修改的文件生效

source /etc/profile

5、测试是否安装成功

hadoop version
在这里插入图片描述

6. 重启(如果Hadoop命令不能用再重启)

sync
reboot

4、Hadoop目录结构

1、查看Hadoop目录结构

在这里插入图片描述

2、重要目录

(1)bin目录:存放对Hadoop相关服务(HDFS,YARN)进行操作的脚本
(2)etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件
(3)lib目录:存放Hadoop的本地库(对数据进行压缩解压缩功能)
(4)sbin目录:存放启动或停止Hadoop相关服务的脚本
(5)share目录:存放Hadoop的依赖jar包、文档、和官方案例

四、Hadoop运行模式

Hadoop运行模式包括:本地模式、伪分布式模式以及完全分布式模式。
Hadoop官方网站:http://hadoop.apache.org/
文档:https://hadoop.apache.org/docs/r2.7.2/

1、本地运行模式

1 官方Grep案例

1、创建在hadoop-2.7.2文件下面创建一个input文件夹
[cy@hadoop01 hadoop-2.7.2]$ mkdir input
2.、将Hadoop的xml配置文件复制到input
[cy@hadoop01 hadoop-2.7.2]$ cp etc/hadoop/*.xml input
3、检查是否拷贝成功
ls input
在这里插入图片描述
4.、执行share目录下的MapReduce程序(hadoop-mapreduce-examples-2.7.2.jar)
[cy@hadoop01 hadoop-2.7.2]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input/ output ‘dfs[a-z.]+’
注:
grep:表示只运行其中的一个文件,因为hadoop-mapreduce-examples-2.7.2.jar里面有多个案例,依据是examples是以s结尾的
input :表示输入文件的路径
output:表示输出文件的路径,输出文件必须不存在,如果存在则出异常
'dfs[a-z.]+:表示过滤规则
5、查看输出结果
[cy@hadoop01 output]$ cat part-r-00000
在这里插入图片描述

2、官方WordCount案例

1、创建在hadoop-2.7.2文件下面创建一个wcinput文件夹
[cy@hadoop01 hadoop-2.7.2]$ cd wcinput
2、在wcinput文件下创建一个wc.input文件
[cy@hadoop01 hadoop-2.7.2]$ cd wcinput
[cy@hadoop01 wcinput]$ touch wc.input
3.、编辑wc.input文件
[cy@hadoop01 wcinput]$ vi wc.input t
在文件中输入如下内容
tianyi huichao Tihua zhangchen
xiaoheng xinbo xinbo gaoyang gaoyang
yanjing yanjing
保存退出::wq
4、回到Hadoop目录/opt/module/hadoop-2.7.2,执行share目录下的MapReduce程序(hadoop-mapreduce-examples-2.7.2.jar)
[cy@hadoop01 wcinput]$ cd …
[cy@hadoop01 hadoop-2.7.2]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-ee/hadoop-mapreduce-examples-2.7.2.jar wordcount wcinput/ wcoutput
注:
wordcount:表示文件中单词的个
5、查看
在这里插入图片描述

2、伪分布式运行模式

1、启动HDFS并运行MapReduce程序

1、分析

(1)配置集群
(2)启动、测试集群增、删、查
(3)执行WordCount案例

2.、执行步骤

1、配置集群

(a)配置:hadoop-env.sh
Linux系统中获取JDK的安装路径:
[cy@hadoop01 hadoop]$ echo J A V A H O M E 然后修改 J A V A H O M E 路径: [ c y @ h a d o o p 01 h a d o o p ] JAVA_HOME 然后修改JAVA_HOME 路径: [cy@hadoop01 hadoop] JAVAHOME然后修改JAVAHOME路径:[cy@hadoop01hadoop] vi hadoop-env.sh
注意:以后遇到env文件都给JAVA_HOME
在这里插入图片描述
export JAVA_HOME=/opt/module/jdk1.8.0_144
在这里插入图片描述
(b)配置:core-site.xml
[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop01 hadoop]$ vi core-site.xml
如:
在这里插入图片描述
core-site.xml 配置如下

	<!-- 指定HDFS中NameNode的地址 -->
	<property>
	<name>fs.defaultFS</name>
	    <value>hdfs://hadoop01:9000</value>
	</property>
	
	<!-- 指定Hadoop运行时产生文件的存储目录 -->
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/opt/module/hadoop-2.7.2/data/tmp</value>
	</property>

如:

在这里插入图片描述
(c)配置:hdfs-site.xml
[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop01 hadoop]$ vi hdfs-site.xml

<!-- 指定HDFS副本的数量 -->
<property>
	<name>dfs.replication</name>
	<value>1</value>
</property>

在这里插入图片描述

2、启动集群

(a)格式化NameNode(第一次启动时格式化,以后就不要总格式化)
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs namenode -format
(b)启动NameNode
[cy@hadoop01 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode
(c)启动DataNode
[cy@hadoop01 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start datanode

3、查看集群

(a)查看是否启动成功
[cy@hadoop01 hadoop-2.7.2]$ jps
在这里插入图片描述
注意:jps是JDK中的命令,不是Linux命令。不安装JDK不能使用jps
(b)web端查看HDFS文件系统
http://主机名/ip:50070/
http://hadoop01:50070/是查看HDFS的接口
在这里插入图片描述
**注意:**如果访问失败
1、将hadoop-env.sh、yarn-env.sh、mapred-env.sh文件的JAVA_HOME配置成绝对路径
查看绝对路径:[cy@hadoop01 hadoop]$ echo $JAVA_HOME
在这里插入图片描述

[cy@hadoop01 hadoop]$ vi hadoop-env.sh
[cy@hadoop01 hadoop]$ vi yarn-env.sh
[cy@hadoop01 hadoop]$ vi mapred-env.sh
如:
在这里插入图片描述
2、配置hdfs-site.xml

<property>
  <name>dfs.http.address</name>
  <value>主机名:50070</value>
</property>

[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop01 hadoop]$ vi hdfs-site.xml
在这里插入图片描述
3、一定要关闭防火墙
关闭防火墙:service iptables stop
永久关闭防火墙:chkconfig iptables off
4、将selinux/config的SELINUX改为disabled
[root@djt002 hadoop]# vi /etc/selinux/config
在这里插入图片描述

4、集群的操作

操作命令:bin/hdfs dfs
例1:在HDFS文件系统上创建一个input文件夹(在hadoop-2.7.2目录下创建/user/cy/input)
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -mkdir -p /user/cy/input
例2:将测试文件内容上传到文件系统上(将hadoop-2.7.2目录下的wcinput/wc.input上传到/user/cy/input下)
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -put wcinput/wc.input /user/cy/input

**例3:**查看上传的文件是否正确
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -ls /user/cy/input/
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -cat /user/atguigu/ input/wc.input
**例4:**运行MapReduce程序
[cy@hadoop01 hadoop-2.7.2]$ bin/hadoop jarshare/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/cy/input/ /user/cy/output
例5: 查看输出结果,如果想要查看文件内容
命令行查看:

[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -cat /user/cy/output/p*
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs  -cat /user/cy/input/w*

在这里插入图片描述
注意:w*表示以w开头的的文件
浏览器查看:
在这里插入图片描述
例6: 将测试文件内容下载到本地
[cy@hadoop01 hadoop-2.7.2]$ hdfs dfs -get /user/cy/output/part-r-00000 ./wcoutput/
例7: 删除输出结果
[cy@hadoop01 hadoop-2.7.2]$ hdfs dfs -rm -r /user/cy/output

5、查看产生的Log日志

说明:在企业中遇到Bug时,经常根据日志提示信息去分析问题、解决Bug。
当前目录:/opt/module/hadoop-2.7.2/logs

3、NameNode格式化注意事项

思考:为什么不能一直格式化NameNode,格式化NameNode,要注意什么?
注意: 因为NameNode和DataNode的id一致,格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。所以,格式NameNode时,一定要先删除data数据和log日志,然后再格式化NameNode。
如:
在这里插入图片描述

2、启动YARN并运行MapReduce程序

1.、分析

(1)配置集群在YARN上运行MR
(2)启动、测试集群增、删、查
(3)在YARN上执行WordCount案例

2.、执行步骤

1、配置集群

(a)配置yarn-env.sh

配置一下JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144

[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop01 hadoop]$ vi yarn-env.sh

在这里插入图片描述
(b)配置yarn-site.xml

<!-- Reducer获取数据的方式 -->
<property>
	<name>yarn.nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value>
</property>

<!-- 指定YARN的ResourceManager的地址 -->
<property>
	<name>yarn.resourcemanager.hostname</name>
	<value>hadoop101</value>
</property>

[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop01 hadoop]$ vi yarn-site.xml
在这里插入图片描述
(c)配置:mapred-env.sh

配置一下JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144

[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop01 hadoop]$ vi mapred-env.sh
在这里插入图片描述

(d)配置: (对mapred-site.xml.template重新命名为) mapred-site.xml

<!-- 指定MR运行在YARN上 -->
<property>
	<name>mapreduce.framework.name</name>
	<value>yarn</value>
</property>

[cy@hadoop01 hadoop]$ mv mapred-site.xml.template mapred-site.xml
[cy@hadoop01 hadoop]$ vi mapred-site.xml
在这里插入图片描述

2、启动集群

启动前必须保证NameNode和DataNode已经启动
在这里插入图片描述
(a)启动ResourceManager
[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh start resourcemanager
(b)启动NodeManager
[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager
©检查是否启动成功
[cy@hadoop01 hadoop-2.7.2]$ jps
在这里插入图片描述

3、集群操作

(a)YARN的浏览器页面查看
http://hadoop01:8088/cluster
在这里插入图片描述
http://hadoop01:8088/cluster : 是查看MapReduce程序运行的进程
http://hadoop01:50070/ :是查看HDFS的接口

(b)删除文件系统上的output文件
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -rm -R /user/cy/output
(c)执行MapReduce程序
[cy@hadoop101 hadoop-2.7.2]$ bin/hadoop jar
share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/atguigu/input /user/atguigu/output
(d)查看运行结果
[cy@hadoop101 hadoop-2.7.2]$ bin/hdfs dfs -cat /user/cy/output/*
在这里插入图片描述

3、配置历史服务器

为了查看程序的历史运行情况,需要配置一下历史服务器。具体配置步骤如下:

1、配置mapred-site.xml

在该文件里面增加如下配置。

<!-- 历史服务器端地址 -->
<property>
	<name>mapreduce.jobhistory.address</name>
	<value>hadoop101:10020</value>
</property>
<!-- 历史服务器web端地址 -->
<property>
  <name>mapreduce.jobhistory.webapp.address</name>
   <value>hadoop101:19888</value>
</property>

[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop101 hadoop]$ vi mapred-site.xml
在这里插入图片描述

2、启动历史服务器

[cy@hadoop101 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh start historyserver

3、查看历史服务器是否启动

[cy@hadoop101 hadoop-2.7.2]$ jps

4、查看JobHistory

http://hadoop01:19888/jobhistory

4、配置日志的聚集

日志聚集概念: 应用运行完成以后,将程序运行日志信息上传到HDFS系统上。
日志聚集功能好处: 可以方便的查看到程序运行详情,方便开发调试。
注意: 开启日志聚集功能,需要重新启动NodeManager 、ResourceManager和HistoryManager。

1、关闭NodeManager 、ResourceManager和HistoryManager

[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop nodemanager
[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop resourcemanager
[cy@hadoop01 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh stop historyserver

开启日志聚集功能具体步骤如下:

2、配置yarn-site.xml

在该文件里面增加如下配置。

<!-- 日志聚集功能使能 -->
<property>
	<name>yarn.log-aggregation-enable</name>
	<value>true</value>
</property>

<!-- 日志保留时间设置7天 -->
<property>
	<name>yarn.log-aggregation.retain-seconds</name>
	<value>604800</value>
</property>

[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop101 hadoop]$ vi yarn-site.xml
在这里插入图片描述

3、开启NodeManager 、ResourceManager和HistoryManager

[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh start resourcemanager
[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager
[cy@hadoop01 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh start historyserver

4、删除HDFS上已经存在的输出文件

[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -rm -r /user/cy/output

5、执行WordCount程序

[cy@hadoop01 hadoop-2.7.2]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/cy/input /user/cy/output

6、查看日志,

http://hadoop01:19888/jobhistory
或点击logs查看
在这里插入图片描述

5、配置文件说明

Hadoop配置文件分两类:默认配置文件和自定义配置文件,只有用户想修改某一默认配置值时,才需要修改自定义配置文件,更改相应属性值。

1、默认配置文件:

要获取的默认文件 文件存放在Hadoop的jar包中的位置
[core-default.xml] hadoop-common-2.7.2.jar/ core-default.xml
[hdfs-default.xml] hadoop-hdfs-2.7.2.jar/ hdfs-default.xml
[yarn-default.xml] hadoop-yarn-common-2.7.2.jar/ yarn-default.xml
[mapred-default.xml] hadoop-mapreduce-client-core-2.7.2.jar/ mapred-default.xml

2、自定义配置文件:
core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml四个配置文件存放在$HADOOP_HOME/etc/hadoop这个路径上,用户可以根据项目需求重新进行修改配置。

3、完全分布式运行模式(开发重点)

1、分析:

1)准备3台客户机(关闭防火墙、静态ip、主机名称)
2)安装JDK
3)配置环境变量
4)安装Hadoop
5)配置环境变量
6)配置集群
7)单点启动
8)配置ssh
9)群起并测试集群

2、虚拟机准备(三台)

详见《三、Hadoop运行环境搭建(开发重点)1、虚拟机环境准备》

3、编写集群分发脚本xsync

1、scp(secure copy)安全拷贝

(1)scp定义:
scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)
(2)基本语法

scp    -r          $pdir/$fname              $user@hadoop$host:$pdir/$fname
命令   递归        要拷贝的文件路径/名称         目的用户@主机:目的路径/名称

(3)案例实操
(a) 在hadoop01上,将hadoop01中/opt/module目录下的软件拷贝到hadoop02上。

[cy@hadoop01 opt]$ scp -r module root@hadoop02:/opt/module

如果报:
在这里插入图片描述
则用ip地址

[cy@hadoop01 opt]$ scp -r module root@192.168.188.104:/opt/module

(b) 在hadoop03上,将hadoop01服务器上的/opt/module目录下的软件拷贝到hadoop03上。

[cy@hadoop103 opt]$ sudo scp -r cy@hadoop01:/opt/module root@hadoop03:/opt/module ./  
//注意:./表示拷贝到opt的当前路径下

(c) 在hadoop03上操作将hadoop01中/opt/module目录下的软件拷贝到hadoop04上。

[cy@hadoop103 opt]$ scp -r cy@hadoop101:/opt/module root@hadoop104:/opt/module

注意: 拷贝过来的/opt/module目录,别忘了在hadoop02、hadoop03、hadoop04上修改所有文件的,所有者和所有者组。

[cy@hadoop02 opt]$ sudo chown cy:cy -R /opt/module

(d) 将hadoop01中/etc/profile文件拷贝到hadoop02的/etc/profile上。

[cy@hadoop01 ~]$ sudo scp /etc/profile root@hadoop02:/etc/profile

注意: 拷贝过来的配置文件(profile)别忘了source一下/etc/profile

[cy@hadoop02 module]$ source /etc/profile
2、 rsync 远程同步工具

rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。
(1)基本语法

rsync    -rvl       $pdir/$fname              $user@hadoop$host:$pdir/$fname
命令   	  选项参数   要拷贝的文件路径/名称        目的用户@主机:目的路径/名称

选项参数说明

选项功能
-r递归
-v显示复制过程
-l拷贝符号连接

(2)案例实操
把hadoop01机器上的/opt/software目录同步到hadoop02服务器的root用户下的/opt/目录

[cy@hadoop01 opt]$ rsync -rvl /opt/software/ root@hadoop02:/opt/software
3、xsync集群分发脚本

(1)需求: 循环复制文件到所有节点的相同目录下
(2)需求分析:

  • (a)rsync命令原始拷贝:

    rsync  -rvl     /opt/module  		 root@hadoop103:/opt/
    
  • (b)期望脚本:
    xsync要同步的文件名称

  • (c)说明:在/home/atguigu/bin这个目录下存放的脚本,atguigu用户可以在系统任何地方直接执行。
    (3)脚本实现:

  • (a)在/home/cy目录下创建bin目录,并在bin目录下xsync创建文件,文件内容如下:

    [cy@hadoop102 ~]$ mkdir bin
    [cy@hadoop102 ~]$ cd bin/
    [cy@hadoop102 bin]$ touch xsync
    [cy@hadoop102 bin]$ vi xsync
    

    在该文件中编写如下代码

    #!/bin/bash
    #1 获取输入参数个数,如果没有参数,直接退出
    pcount=$#
    if((pcount==0)); then
    echo no args;
    exit;
    fi
    
    #2 获取文件名称
    p1=$1
    fname=`basename $p1`
    echo fname=$fname
    
    #3 获取上级目录到绝对路径
    pdir=`cd -P $(dirname $p1); pwd`
    echo pdir=$pdir
    
    #4 获取当前用户名称
    user=`whoami`
    
    #5 循环
    for((host=103; host<105; host++)); do
            echo ------------------- hadoop$host --------------
            rsync -rvl $pdir/$fname $user@hadoop$host:$pdir
    done
    
  • (b)修改脚本 xsync 具有执行权限

    [cy@hadoop102 bin]$ chmod 777 xsync
    
  • (c)调用脚本形式:xsync 文件名称

    [cy@hadoop102 ~]$ xsync bin/
    

注意: 如果将xsync放到/home/cy/bin目录下仍然不能实现全局使用,可以将xsync移动到/usr/local/bin目录下。

4、集群配置

1、集群部署规划

在这里插入图片描述

2、配置集群

(1)核心配置文件
配置core-site.xml

[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi core-site.xml

在该文件中编写如下配置

<!-- 指定HDFS中NameNode的地址 -->
<property>
		<name>fs.defaultFS</name>
      <value>hdfs://hadoop02:9000</value>
</property>

<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
		<name>hadoop.tmp.dir</name>
		<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>

(2)HDFS配置文件
配置hadoop-env.sh

[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi hadoop-env.sh

export JAVA_HOME=/opt/module/jdk1.8.0_144

配置hdfs-site.xml

[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi hdfs-site.xml

在该文件中编写如下配置

<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>hadoop04:50090</value>
</property>

在这里插入图片描述
(3)YARN配置文件
配置yarn-env.sh

[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi yarn-env.sh

export JAVA_HOME=/opt/module/jdk1.8.0_144

配置yarn-site.xml

[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi yarn-site.xml

在该文件中增加如下配置

<!-- Reducer获取数据的方式 -->
<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
</property>

<!-- 指定YARN的ResourceManager的地址 -->
<property>
		<name>yarn.resourcemanager.hostname</name>
		<value>hadoop103</value>
</property>

(4)MapReduce配置文件
配置mapred-env.sh

[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi mapred-env.sh

export JAVA_HOME=/opt/module/jdk1.8.0_144

配置mapred-site.xml

[cy@hadoop102 hadoop]$ cp mapred-site.xml.template mapred-site.xml
[cy@hadoop102 hadoop]$ vi mapred-site.xml

在该文件中增加如下配置

<!-- 指定MR运行在Yarn上 -->
<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
</property>
3、在集群上分发配置好的Hadoop配置文件
[cy@hadoop02 hadoop]$ xsync /opt/module/hadoop-2.7.2/
4、查看文件分发情况
[cy@hadoop03 hadoop]$ cat /opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml
5、集群单点启动

(1)如果集群是第一次启动,需要格式化NameNode

[cy@hadoop102 hadoop-2.7.2]$ hadoop namenode -format

(2)在hadoop102上启动NameNode

[cy@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start namenode

(3)在hadoop102、hadoop103以及hadoop104上分别启动DataNode

[cy@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
[cy@hadoop102 hadoop-2.7.2]$ jps
[cy@hadoop103 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
[cy@hadoop103 hadoop-2.7.2]$ jps
[cy@hadoop104 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
[cy@hadoop104 hadoop-2.7.2]$ jps

在这里插入图片描述

6、SSH无密登录配置
1、配置ssh

(1)基本语法
ssh另一台电脑的ip地址
(2)ssh连接时出现Host key verification failed的解决方法

[cy@hadoop102 opt] $ ssh 192.168.1.103
The authenticity of host ‘192.168.1.103 (192.168.1.103)’ can’t be established.
RSA key fingerprint is cf:1e🇩🇪d7:d0:4c:2d:98:60:b4:fd:ae:b1:2d:ad:06.
Are you sure you want to continue connecting (yes/no)?
Host key verification failed.

(3)解决方案如下:直接输入yes

2、无密钥配置

(1)免密登录原理
在这里插入图片描述
用ssh-keygen生成秘钥对,再将公钥拷贝到Authorized_keys,当ssh方法服务器B时(数据用私钥A加密),B服务器接收到数据后,去授权文件中把公钥key拿出来,解决接收的私钥,解密完后用A公钥加密数据然后返回给A

(2)生成公钥和私钥:

[cy@hadoop102 ~]$ ls -al
[cy@hadoop102 ~]$ cd .ssh

在这里插入图片描述

[cy@hadoop102 .ssh]$ ssh-keygen -t rsa

在这里插入图片描述

然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
(3)将公钥拷贝到要免密登录的目标机器上

[cy@hadoop102 .ssh]$ ssh-copy-id hadoop102 //本身也需要生成一次
[cy@hadoop102 .ssh]$ ssh-copy-id hadoop103
[cy@hadoop102 .ssh]$ ssh-copy-id hadoop104

在这里插入图片描述

注意:
还需要在hadoop102上采用root账号,配置一下无密登录到hadoop102、hadoop103、hadoop104;
还需要在hadoop103上采用cy账号配置一下无密登录到hadoop102、hadoop103、hadoop104服务器上。

3、.ssh文件夹下(~/.ssh)的文件功能解释

在这里插入图片描述

7、群起集群

1. 配置slaves

/opt/module/hadoop-2.7.2/etc/hadoop/slaves
[cy@hadoop102 hadoop]$ vi slaves

在该文件中增加如下内容:

hadoop102
hadoop103
hadoop104

注意: 该文件中添加的内容结尾不允许有空格,文件中不允许有空行。
同步所有节点配置文件

[cy@hadoop102 hadoop]$ xsync slaves

2. 启动集群
(1)如果集群是第一次启动,需要格式化NameNode(注意格式化之前,一定要先停止上次启动的所有namenode和datanode进程,然后再删除data和log数据)

[cy@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -format

(2)启动HDFS

[cy@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh

(3)启动YARN

[cy@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh

注意: NameNode和ResourceManger如果不是同一台机器,不能在NameNode上启动 YARN,应该在ResouceManager所在的机器上启动YARN。

(4)Web端查看SecondaryNameNode

  • (a)浏览器中输入:http://hadoop104:50090/status.html
  • (b)查看SecondaryNameNode信息,如图2-41所示。

3. 集群基本测试

  • (1)上传文件到集群
    上传小文件

    [cy@hadoop102 hadoop-2.7.2]$ bin/hdfs dfs -put wcinput/wc.input  /
    

    上传大文件

    [cy@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -put
     /opt/software/hadoop-2.7.2.tar.gz  /user/cy/input
    
  • (2)上传文件后查看文件存放在什么位置
    (a)查看HDFS文件存储路径

    [cy@hadoop102 subdir0]$ pwd
    /opt/module/hadoop-2.7.2/data/tmp/dfs/data/current/BP-938951106-192.168.10.107-1495462844069/current/finalized/subdir0/subdir0
    

    (b)查看HDFS在磁盘存储文件内容

    [cy@hadoop102 subdir0]$ cat blk_1073741825
    hadoop yarn
    hadoop mapreduce 
    cy
    cy
    
  • (3)拼接

    -rw-rw-r--. 1 cy cy134217728 5月  23 16:01 blk_1073741836
    -rw-rw-r--. 1 cy cy    1048583 5月  23 16:01 blk_1073741836_1012.meta
    -rw-rw-r--. 1 cy  cy   63439959 5月  23 16:01 blk_1073741837
    -rw-rw-r--. 1 cy  cy     495635 5月  23 16:01 blk_1073741837_1013.meta
    [cy@hadoop102 subdir0]$ cat blk_1073741836>>tmp.file
    [cy@hadoop102 subdir0]$ cat blk_1073741837>>tmp.file
    [cy@hadoop102 subdir0]$ tar -zxvf tmp.file
    
  • (4)下载

    [cy@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -get/user/cy/input/hadoop-2.7.2.tar.gz ./
    
8、集群启动/停止方式总结

1. 各个服务组件逐一启动/停止

(1)分别启动/停止HDFS组件
		hadoop-daemon.sh  start / stop  namenode / datanode / secondarynamenode
(2)启动/停止YARN
	yarn-daemon.sh  start / stop  resourcemanager / nodemanager

2. 各个模块分开启动/停止(配置ssh是前提)常用

(1)整体启动/停止HDFS
	start-dfs.sh   /  stop-dfs.sh
(2)整体启动/停止YARN
	start-yarn.sh  /  stop-yarn.sh
9、crontab定时任务设置

1、基本语法
crontab[选项]
2、选项说明

选项功能
-e编辑crontab定时任务
-l查询crontab任务
-r删除当前用户所有的crontab任务

3、参数说明

[root@hadoop102 ~]# crontab -e

(1) 进入crontab编辑界面

* * * * *执行的任务

说明:
在这里插入图片描述

(2)特殊符号
在这里插入图片描述
(3)特定时间执行命令
在这里插入图片描述

10、 集群时间同步

时间同步的方式:找一个机器,作为时间服务器,所有的机器与这台集群时间进行定时的同步,比如,每隔十分钟,同步一次时间。
在这里插入图片描述
配置时间同步具体实操:

  1. 时间服务器配置(必须root用户)
    (1)检查ntp是否安装
[root@hadoop102]# rpm -qa|grep ntp
	ntp-4.2.6p5-10.el6.centos.x86_64
	fontpackages-filesystem-1.41-1.1.el6.noarch
	ntpdate-4.2.6p5-10.el6.centos.x86_64
出现以上三个表示安装成功

(2)修改ntp配置文件

[root@hadoop102]# vi /etc/ntp.conf

修改内容如下

  • a)修改1(授权192.168.1.0-192.168.1.255网段上的所有机器可以从这台机器上查询和同步时间)

    #restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap为
    restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap
    
  • b)修改2(集群在局域网中,不使用其他互联网上的时间)

    server 0.centos.pool.ntp.org iburst
    server 1.centos.pool.ntp.org iburst
    server 2.centos.pool.ntp.org iburst
    server 3.centos.pool.ntp.org iburst为
    #server 0.centos.pool.ntp.org iburst
    #server 1.centos.pool.ntp.org iburst
    #server 2.centos.pool.ntp.org iburst
    #server 3.centos.pool.ntp.org iburst
    
  • c)添加3(当该节点丢失网络连接,依然可以采用本地时间作为时间服务器为集群中的其他节点提供时间同步)

    server 127.127.1.0
    fudge 127.127.1.0 stratum 10
    

(3)修改/etc/sysconfig/ntpd 文件

[root@hadoop102]# vim /etc/sysconfig/ntpd

增加内容如下(让硬件时间与系统时间一起同步)

SYNC_HWCLOCK=yes

(4)重新启动ntpd服务

[root@hadoop102]# service ntpd status
ntpd 已停
[root@hadoop102]# service ntpd start
正在启动 ntpd:                                            [确定]

(5)设置ntpd服务开机启动

[root@hadoop102]# chkconfig ntpd on

2. 其他机器配置(必须root用户)
(1)在其他机器配置10分钟与时间服务器同步一次

[root@hadoop103]# crontab -e

编写定时任务如下:

*/10 * * * * /usr/sbin/ntpdate hadoop102

(2)修改任意机器时间

[root@hadoop103]# date -s "2017-9-11 11:11:11"

(3)十分钟后查看机器是否与时间服务器同步

[root@hadoop103]# date

说明: 测试的时候可以将10分钟调整为1分钟,节省时间。

五、Hadoop编译源码(面试重点)

1 前期准备工作

1. CentOS联网

配置CentOS能连接外网。Linux虚拟机ping www.baidu.com 是畅通的
注意:采用root角色编译,减少文件夹权限出现问题

2. jar包准备(hadoop源码、JDK8、maven、ant 、protobuf)

(1)hadoop-2.7.2-src.tar.gz
(2)jdk-8u144-linux-x64.tar.gz
(3)apache-ant-1.9.9-bin.tar.gz(build工具,打包用的)
(4)apache-maven-3.0.5-bin.tar.gz
(5)protobuf-2.5.0.tar.gz(序列化的框架)

2 jar包安装

注意:所有操作必须在root用户下完成

1.JDK解压、配置环境变量 JAVA_HOME和PATH,验证java-version(如下都需要验证是否配置成功)

[root@hadoop101 software] # tar -zxf jdk-8u144-linux-x64.tar.gz -C /opt/module/
[root@hadoop101 software]# vi /etc/profile

#JAVA_HOME:
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin

[root@hadoop101 software]#source /etc/profile
验证命令:java -version

2.Maven解压、配置 MAVEN_HOME和PATH

[root@hadoop101 software]# tar -zxvf apache-maven-3.0.5-bin.tar.gz -C /opt/module/
[root@hadoop101 apache-maven-3.0.5]# vi conf/settings.xml
<mirrors>
    <!-- mirror
     | Specifies a repository mirror site to use instead of a given repository. The repository that
     | this mirror serves has an ID that matches the mirrorOf element of this mirror. IDs are used
     | for inheritance and direct lookup purposes, and must be unique across the set of mirrors.
     |
<mirror>
       <id>mirrorId</id>
       <mirrorOf>repositoryId</mirrorOf>
       <name>Human Readable Name for this Mirror.</name>
       <url>http://my.repository.com/repo/path</url>
      </mirror>
     -->
        <mirror>
                <id>nexus-aliyun</id>
                <mirrorOf>central</mirrorOf>
                <name>Nexus aliyun</name>
                <url>http://maven.aliyun.com/nexus/content/groups/public</url>
        </mirror>
</mirrors>
[root@hadoop101 apache-maven-3.0.5]# vi /etc/profile
#MAVEN_HOME
export MAVEN_HOME=/opt/module/apache-maven-3.0.5
export PATH=$PATH:$MAVEN_HOME/bin

[root@hadoop101 software]#source /etc/profile

验证命令:mvn -version

3.ant解压、配置 ANT _HOME和PATH

[root@hadoop101 software]# tar -zxvf apache-ant-1.9.9-bin.tar.gz -C /opt/module/
[root@hadoop101 apache-ant-1.9.9]# vi /etc/profile

#ANT_HOME
export ANT_HOME=/opt/module/apache-ant-1.9.9
export PATH=$PATH:$ANT_HOME/bin

[root@hadoop101 software]#source /etc/profile
验证命令:ant -version

4.安装 glibc-headers 和 g++ 命令如下

[root@hadoop101 apache-ant-1.9.9]# yum install glibc-headers
[root@hadoop101 apache-ant-1.9.9]# yum install gcc-c++

5.安装make和cmake

[root@hadoop101 apache-ant-1.9.9]# yum install make
[root@hadoop101 apache-ant-1.9.9]# yum install cmake

6.解压protobuf ,进入到解压后protobuf主目录,/opt/module/protobuf-2.5.0,然后相继执行命令

[root@hadoop101 software]# tar -zxvf protobuf-2.5.0.tar.gz -C /opt/module/
[root@hadoop101 opt]# cd /opt/module/protobuf-2.5.0/
[root@hadoop101 protobuf-2.5.0]#./configure 
[root@hadoop101 protobuf-2.5.0]# make 
[root@hadoop101 protobuf-2.5.0]# make check 
[root@hadoop101 protobuf-2.5.0]# make install 
[root@hadoop101 protobuf-2.5.0]# ldconfig 

[root@hadoop101 hadoop-dist]# vi /etc/profile

#LD_LIBRARY_PATH
export LD_LIBRARY_PATH=/opt/module/protobuf-2.5.0
export PATH=$PATH:$LD_LIBRARY_PATH

[root@hadoop101 software]#source /etc/profile

验证命令:protoc --version

7.安装openssl库

[root@hadoop101 software]#yum install openssl-devel

8.安装 ncurses-devel库

[root@hadoop101 software]#yum install ncurses-devel

到此,编译工具安装基本完成。

3 编译源码

1. 解压源码到/opt/目录

[root@hadoop101 software]# tar -zxvf hadoop-2.7.2-src.tar.gz -C /opt/

2. 进入到hadoop源码主目录

[root@hadoop101 hadoop-2.7.2-src]# pwd
/opt/hadoop-2.7.2-src

3. 通过maven执行编译命令

[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,native -DskipTests -Dtar

等待时间30分钟左右,最终成功是全部SUCCESS,如图所示。
在这里插入图片描述

4. 成功的64位hadoop包在/opt/hadoop-2.7.2-src/hadoop-dist/target下

[root@hadoop101 target]# pwd
/opt/hadoop-2.7.2-src/hadoop-dist/target

5. 编译源码过程中常见的问题及解决方案

(1)MAVEN install时候JVM内存溢出

处理方式:在环境配置文件和maven的执行文件均可调整MAVEN_OPT的heap大小。(详情查阅MAVEN 编译 JVM调优问题,如:http://outofmemory.cn/code-snippet/12652/maven-outofmemoryerror-method)

(2)编译期间maven报错。可能网络阻塞问题导致依赖库下载不完整导致,多次执行命令(一次通过比较难):

[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,nativeN -DskipTests -Dtar

(3)报ant、protobuf等错误,插件下载未完整或者插件版本问题,最开始链接有较多特殊情况,同时推荐

2.7.0版本的问题汇总帖子 http://www.tuicool.com/articles/IBn63qf

各个接口的作用

http://hadoop01:8088/cluster :是查看MapReduce程序运行的进程**
http://hadoop01:50070/:是查看HDFS的接口
http://hadoop101:19888/jobhistory: 查看日志

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/340000.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Rust学习入门--【6】Rust 基础语法

Rust 基础语法 变量&#xff0c;数据类型&#xff0c;注释&#xff0c;函数和控制流&#xff0c;这些是大部分编程语言都具有的编程概念。 本节将学习理解这些概念。 变量 Rust 是强类型语言&#xff0c;但具有自动判断变量类型的能力。这很容易让人与弱类型语言产生混淆。…

Sentinel源码解析-ProcessorSlot具体

前言 上篇文章中我们已经讲到了构造完处理链&#xff0c;然后会调用对应slot的entry方法&#xff0c;我们根据配置文件中Slot的具体顺序来逐一讲解Slot的具体实现。 一、NodeSelectorSlot 这个 slot 主要负责收集资源的路径&#xff0c;并将这些资源的调用路径&#xff0c;以…

ssm学生在线选课成绩教案管理系统java

基于JSP技术、SSM框架、B/S机构、Mysql数据库设计并实现了教案管理系统。系统主要包括个人中心、学生管理、教师管理、公告信息管理、科目管理、课程信息管理、选课记录管理、学生成绩管理、系统管理等功能模块。结合实际项日的功能需求&#xff0c;从研究背景、国内发展的现状…

C++ 基础

命名空间 在 C/C 中&#xff0c;变量、函数和类都是大量存在的&#xff0c;这些变量、函数和类的名称将都存在全局作用域中&#xff0c;可能会导致很多冲突。使用命名空间的目的是对标识符的名称进行本地化&#xff0c;以避免命名冲突或名字污染&#xff0c;namespace 关键字的…

就现在!为元宇宙和Web3对互联网的改造做准备!

欢迎来到Hubbleverse &#x1f30d; 关注我们 关注宇宙新鲜事 &#x1f4cc; 预计阅读时长&#xff1a;8分钟 本文仅代表作者个人观点&#xff0c;不代表平台意见&#xff0c;不构成投资建议。 如今&#xff0c;互联网是各种不同的网站、应用程序和平台的集合。由于彼此分离…

微信小程序Springboot 校园拼车自助服务系统java

系统管理员&#xff1a; 管理员账户管理&#xff1a;在线对管理员的账户信息进行管理&#xff0c;包括对管理员信息的增加修改以及密码的修改等。 站内新闻管理&#xff1a;在后台对站内新闻信息进行发布&#xff0c;并能够对站内新闻信息进行删除修改等。 论坛版块管理&#x…

SpringMVC--注解配置SpringMVC、SpringMVC执行流程

注解配置SpringMVC 使用配置类和注解代替web.xml和SpringMVC配置文件的功能 创建初始化类&#xff0c;代替web.xml 在Servlet3.0环境中&#xff0c;容器会在类路径中查找实现javax.servlet.ServletContainerInitializer接口的类&#xff0c; 如果找到的话就用它来配置Servle…

69. x 的平方根

文章目录题目描述二分法参考文献题目描述 给你一个非负整数 x &#xff0c;计算并返回 x 的 算术平方根 。 由于返回类型是整数&#xff0c;结果只保留 整数部分 &#xff0c;小数部分将被 舍去 。 注意&#xff1a;不允许使用任何内置指数函数和算符&#xff0c;例如 pow(x…

pwn手记录题1

fuzzerinstrospector(首届数字空间安全攻防大赛) 主体流程&#xff08;相对比较简单&#xff0c;GLibc为常见的2.27版本&#xff0c; Allocate申请函数&#xff08;其中有两个输入函数Read_8Int、Read_context&#xff1b; 还存在着后门函数&#xff1b; 关键点在于如何利用…

微服务项目(mybatis与微服务注册)

目录 一、SpringBoot整合MybatisPlus 创建自动生成代码子模块 创建商品服务子模块 二、SpringBoot整合 Freeamarker 三、SpringBoot整合微服务&gateway&nginx 整合微服务之商品服务zmall-product 创建并配置网关gateway服务 安装配置SwitchHosts 安装配置Windows…

基于SpringBoot+Vue的疫苗预约管理系统(Java项目)

【辰兮要努力】&#xff1a;hello你好我是辰兮&#xff0c;很高兴你能来阅读&#xff0c;昵称是希望自己能不断精进&#xff0c;向着优秀程序员前行&#xff01; 博客来源于项目以及编程中遇到的问题总结&#xff0c;偶尔会有读书分享&#xff0c;我会陆续更新Java前端、后台、…

RabbitMQ详解(一):RabbitMQ相关概念

RabbitMQ是目前非常热门的一款消息中间件&#xff0c;不管是互联网大厂还是中小企业都在大量使用。作为一名合格的开发者&#xff0c;有必要对RabbitMQ有所了解&#xff0c;本系列是RabbitMQ快速入门文章&#xff0c;主要内容包括RabbitMQ是什么、RabbitMQ核心概念、五种消息模…

设备管理(7)

设备管理 1 I/O硬件组成 设备的类型&#xff1a; 块设备&#xff1a;如&#xff1a;磁盘、磁带&#xff0c;块大小512B~32KB&#xff0c;通常为512B。块设备的特点是速度高、随机访问、I/O采用DMA。字符设备&#xff1a;如&#xff1a;键盘、行式打印机。特点是速度低、不可寻…

河道治理漂浮物识别监测系统 yolov7

河道治理漂浮物识别监测系统通过yolov7网络模型深度视觉分析技术&#xff0c;河道治理漂浮物识别监测算法模型实时检测着河道水面是否存在漂浮物、水浮莲以及生活垃圾等&#xff0c;识别到河道水面存在水藻垃圾等漂浮物&#xff0c;立即抓拍存档预警。You Only Look Once说的是…

LeetCode 1138. 字母板上的路径

【LetMeFly】1138.字母板上的路径 力扣题目链接&#xff1a;https://leetcode.cn/problems/alphabet-board-path/ 我们从一块字母板上的位置 (0, 0) 出发&#xff0c;该坐标对应的字符为 board[0][0]。 在本题里&#xff0c;字母板为board ["abcde", "fghij…

66 使用注意力机制的seq2seq【动手学深度学习v2】

66 使用注意力机制的seq2seq【动手学深度学习v2】 深度学习学习笔记 学习视频&#xff1a;https://www.bilibili.com/video/BV1v44y1C7Tg/?spm_id_from…top_right_bar_window_history.content.click&vd_source75dce036dc8244310435eaf03de4e330 在机器翻译时&#xff0c;…

指针引用字符串问题(详解)

通过指针引用字符串可以更加方便灵活的使用字符串。 字符串的引用方式有两种&#xff0c;下面简单介绍一下这两种方法。 1.用字符数组来存放一个字符串。 1.1 可以通过数组名和下标来引用字符串中的一个字符。 1.2 还可以通过数组名和格式声明符%s输出整个字符串。 具体实…

【项目精选】百货中心供应链管理系统

点击下载源码 近年来&#xff0c;随着计算机技术的发展&#xff0c;以及信息化时代下企业对效率的需求&#xff0c;计算机技术与通信技术已经被越来越多地应用到各行各业中去。百货中心作为物流产业链中重要的一环&#xff0c;为了应对新兴消费方式的冲击&#xff0c;从供货到销…

第五十二章 BFS进阶(二)——双向广搜

第五十二章 BFS进阶&#xff08;二&#xff09;——双向广搜一、双向广搜1、优越之处2、实现逻辑3、复杂度分析二、例题1、问题2、分析3、代码一、双向广搜 1、优越之处 双向广搜是指我们从终点和起点同时开始搜索&#xff0c;当二者到达同一个中间状态的时候&#xff0c;即相…

Python __all__变量用法

事实上&#xff0c;当我们向文件导入某个模块时&#xff0c;导入的是该模块中那些名称不以下划线&#xff08;单下划线“_”或者双下划线“__”&#xff09;开头的变量、函数和类。因此&#xff0c;如果我们不想模块文件中的某个成员被引入到其它文件中使用&#xff0c;可以在其…