文章目录
- 一、大数据概论
- 1、大数据概念
- 2、大数据的特点
- 3、大数据应用场景
- 4、大数据部门的业务流程分析
- 5、大数据部门组织结构(重点)
- 二、从Hadoop框架讨论大数据生态
- 1、什么是Hadoop
- 2、Hadoop发展历史
- 3、Hadoop三大发行版本
- 1.Apache Hadoop
- 2.Cloudera Hadoop
- 3.Hortonworks Hadoop
- 4、Hadoop的优势(4高)
- 5、Hadoop组成(面试重点)
- 1、Hadoop1.x和Hadoop2.x区别
- 2、HDFS架构概述
- 3、YARN架构概述
- 4、MapReduce架构概述
- 6、大数据技术生态体系
- 7、推荐系统项目框架
- 三、Hadoop运行环境搭建(开发重点)
- 1、虚拟机环境准备
- 2、安装JDK
- 1、将jdk上传到software文件夹下
- 2、然后解压到module下
- 3、配置jak环境变量:
- 4、让修改后的文件生效
- 5、测试JDK是否安装成功
- 3、安装Hadoop
- 0、Hadoop下载地址:
- 1、将hadoop-2.7.2.tar.gz压缩包导入到opt目录下面的software文件下
- 2、解压安装文件到/opt/module下面
- 3、将Hadoop添加到环境变量
- 4、让修改的文件生效
- 5、测试是否安装成功
- 6. 重启(如果Hadoop命令不能用再重启)
- 4、Hadoop目录结构
- 1、查看Hadoop目录结构
- 2、重要目录
- 四、Hadoop运行模式
- 1、本地运行模式
- 1 官方Grep案例
- 2、官方WordCount案例
- 2、伪分布式运行模式
- 1、启动HDFS并运行MapReduce程序
- 1、分析
- 2.、执行步骤
- 1、配置集群
- 2、启动集群
- 3、查看集群
- 4、集群的操作
- 5、查看产生的Log日志
- 3、NameNode格式化注意事项
- 2、启动YARN并运行MapReduce程序
- 1.、分析
- 2.、执行步骤
- 1、配置集群
- 2、启动集群
- 3、集群操作
- 3、配置历史服务器
- 1、配置mapred-site.xml
- 2、启动历史服务器
- 3、查看历史服务器是否启动
- 4、查看JobHistory
- 4、配置日志的聚集
- 1、关闭NodeManager 、ResourceManager和HistoryManager
- 2、配置yarn-site.xml
- 3、开启NodeManager 、ResourceManager和HistoryManager
- 4、删除HDFS上已经存在的输出文件
- 5、执行WordCount程序
- 6、查看日志,
- 5、配置文件说明
- 1、默认配置文件:
- 2、自定义配置文件:
- 3、完全分布式运行模式(开发重点)
- 1、分析:
- 2、虚拟机准备(三台)
- 3、编写集群分发脚本xsync
- 1、scp(secure copy)安全拷贝
- 2、 rsync 远程同步工具
- 3、xsync集群分发脚本
- 4、集群配置
- 1、集群部署规划
- 2、配置集群
- 3、在集群上分发配置好的Hadoop配置文件
- 4、查看文件分发情况
- 5、集群单点启动
- 6、SSH无密登录配置
- 1、配置ssh
- 2、无密钥配置
- 3、.ssh文件夹下(~/.ssh)的文件功能解释
- 7、群起集群
- 8、集群启动/停止方式总结
- 9、crontab定时任务设置
- 10、 集群时间同步
- 五、Hadoop编译源码(面试重点)
- 1 前期准备工作
- 1. CentOS联网
- 2. jar包准备(hadoop源码、JDK8、maven、ant 、protobuf)
- 2 jar包安装
- 1.JDK解压、配置环境变量 JAVA_HOME和PATH,验证java-version(如下都需要验证是否配置成功)
- 2.Maven解压、配置 MAVEN_HOME和PATH
- 3.ant解压、配置 ANT _HOME和PATH
- 4.安装 glibc-headers 和 g++ 命令如下
- 5.安装make和cmake
- 6.解压protobuf ,进入到解压后protobuf主目录,/opt/module/protobuf-2.5.0,然后相继执行命令
- 7.安装openssl库
- 8.安装 ncurses-devel库
- 3 编译源码
- 1. 解压源码到/opt/目录
- 2. 进入到hadoop源码主目录
- 3. 通过maven执行编译命令
- 4. 成功的64位hadoop包在/opt/hadoop-2.7.2-src/hadoop-dist/target下
- 5. 编译源码过程中常见的问题及解决方案
- (1)MAVEN install时候JVM内存溢出
- (2)编译期间maven报错。可能网络阻塞问题导致依赖库下载不完整导致,多次执行命令(一次通过比较难):
- (3)报ant、protobuf等错误,插件下载未完整或者插件版本问题,最开始链接有较多特殊情况,同时推荐
- 各个接口的作用
一、大数据概论
1、大数据概念
常规软件工具:mysql,ssm等
大数据的理解:主要解决海量数据的存储和海量数据的分析计算问题
2、大数据的特点
1、Volume(大量):数据量非常庞大大量
2、Velocity(高效):数据量产生的速度非常快
3、Variety(多样):数据的多种多样
4、Value(低价值密度)
3、大数据应用场景
1、物流仓库:大数据分析系统助力商家精细化运营、提升销量、节约成本。
2、零售:分析用户消费习惯,为用户购买商品提供方便,从而提升商品销量
经典案例:子尿布+啤酒
3、旅游:深度结合大数据能与旅游行业需求,共建旅游产业智慧管理、智慧服务和智慧营销的未来
4、商品广告推荐:给用户推荐可能喜欢的商品
5、保险:海量数据挖掘及风险预测,助力保险行业精准营销,提升精细化定价能力
6、金融:多维度体现用户特征,帮助金融机构推荐优质客户,防范欺诈风险
7、房产:大数据全面助力房地产行业,打造精准投策与营销,选出更合适的地,建造更合适的楼卖给更合适的人。
8、人工智能
4、大数据部门的业务流程分析
5、大数据部门组织结构(重点)
大数据部门组织结构,适用于大中型企业
二、从Hadoop框架讨论大数据生态
1、什么是Hadoop
1)Hadoop是一个有Apache基金会所开发的分布式系统的基础架构
2)主要解决:海量数据的存储和海量数据的分析计算问题
3)广义上来说,Hadoop通常是只一个更广泛的概念----Hadoop生态圈
2、Hadoop发展历史
10)Hadoop就此诞生并迅速发展,标志着大数据时代来临
3、Hadoop三大发行版本
Hadoop三大发行版本:Apache、Cloudera、Hortonworks。
个版本特点:
Apache版本最原始(最基础)的版本,对于入门学习最好。apache版
Cloudera在大型互联网企业中用的较多。cdh版
Hortonworks文档较好。
1.Apache Hadoop
官网地址:http://hadoop.apache.org/releases.html
下载地址:https://archive.apache.org/dist/hadoop/common/
2.Cloudera Hadoop
官网地址:https://www.cloudera.com/downloads/cdh/5-10-0.html
下载地址:http://archive-primary.cloudera.com/cdh5/cdh/5/
3.Hortonworks Hadoop
官网地址:https://hortonworks.com/products/data-center/hdp/
下载地址:https://hortonworks.com/downloads/#data-platform
4、Hadoop的优势(4高)
- 高可靠性:Hadoop底层维护多个数据副本,所以即使Hadoop某个计算元素或存储出现故障,也不会导致数据的丢失。
- 高扩展性:在集群间分配任务数据,可方便的扩展数以千计的节点。
- 高效性:在MapReduce的思想下,Hadoop是并行工作的,以加快任务处理速度。
- 高容错性:能够自动将失败的任务重新分配
5、Hadoop组成(面试重点)
1、Hadoop1.x和Hadoop2.x区别
2、HDFS架构概述
HDFS(Hadoop Distributed File System)的架构概述,如图2-23所示。
1)NameNode(mn): 存储文件的元数据,如文件名,文件目录结构,文件属性(生成时间、副本数文件权限),以及每个文件的块列表和块所在的DataNode等.(相当于目录)
2)DataNode(dn):在本地文件系统存储问卷块数据,以及块数据的校验和(相当于目录对应的数据)
3)Secondary NameNode(2nn):用来监控HDFS状态的辅助后台程序,每隔一段时间获取HDFS元素的快照(辅助NameNode工作的)
3、YARN架构概述
节点:等于服务器
ResourceManager:相当于服务器节点
client客户端发送请求到ResourceManager节点,ResourceManager监控nodeManager,启动或监控ApplicationMaster(集群上运行的任务或job),任务或者job由App Mstr来管理,
ApplicationMaster相当于对集群上某个资源的分配和调度
Container:主要为每个任务或job服务,因为每个job都需要内存、cpu、磁盘、网络等
4、MapReduce架构概述
MapReduce将计算过程分为两个阶段:Map和Reduce,如图2-25所示
1)Map阶段并行处理输入数据
2)Reduce阶段对Map结果进行汇总
6、大数据技术生态体系
图中涉及的技术名词解释如下:
1)Sqoop:Sqoop是一款开源的工具,主要用于在Hadoop、Hive与传统的数据库(MySql)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
2)Flume:Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
3)Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:
- (1)通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
- (2)高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。
- (3)支持通过Kafka服务器和消费机集群来分区消息。
- (4)支持Hadoop并行数据加载。
4)Storm:Storm用于“连续计算”,对数据流做连续查询,在计算时就将结果以流的形式输出给用户。适合于非结构化数据存储的数据库。
5)Spark:Spark是当前最流行的开源大数据内存计算框架。可以基于Hadoop上存储的大数据进行计算。
6)Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统。
7)Hbase:HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。
8)Hive:Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
10)R语言:R是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个自由、免费、源代码开放的软件,它是一个用于统计计算和统计制图的优秀工具。
11)Mahout:Apache Mahout是个可扩展的机器学习和数据挖掘库。
12)ZooKeeper:Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。
7、推荐系统项目框架
文件日志获取tomcat的访问日志,通过Flumer日志收集,保存到HDFS或HBase非关系型数据库进行文件存储,然后通过YARN资源管理对任务进行资源分配(内存、CPU、磁盘等)
三、Hadoop运行环境搭建(开发重点)
1、虚拟机环境准备
-
克隆虚拟机
-
修改克隆虚拟机的静态IP
vi /etc/udev/rules.d/70-persistent-net.rules
配置如下:
vi /etc/sysconfig/network-scripts/ifcfg-eth0
配置如下
-
修改主机名
vi /etc/sysconfig/network
修改HOSTNAME的值
vi /etc/hosts检查所有的主机名称
reboot重启服务(重启虚拟机) -
关闭防火墙
-
创建cy用户
#adduser cy
//添加一个名为cy的用户
#passwd cy修改密码命令
Changing password for user cy
New UNIX password: //在这里输入新密码
Retype new UNIX password: //再次输入新密码
passwd: all authentication tokens updated successfully. -
配置cy用户具有root权限(详见《尚硅谷大数据技术之Linux》)
vi /etc/sudoers
:wq! 是强制保存退出 -
在/opt目录下创建文件夹
(1)在/opt目录下创建module(放解压的应用程序)、software(放压缩包)文件夹
然后输入密码即可创建成功
如果显示在root下则用下面方法修改
(2)修改module、software文件夹的所有者cd
sudo chown cy:cy module/ software/ 效果如下:
注意: 如果没有权限创建,则在root用户登录的情况,赋予opt目录给cy这个用户权限 示例代码:
#将目录/opt 及其下面的所有文件、子目录的owner用户改成 cy
chown -R cy:cy /opt
#给目录opt设置权限
chmod 760 /opt
2、安装JDK
1、将jdk上传到software文件夹下
2、然后解压到module下
tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/,切换到modlue文件夹下,cd jdk1.8.0_144 然后ll
3、配置jak环境变量:
打开profile文件:
vi /etc/profile
在profile文件末尾添加JDK路径:(shitf+g)
##JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH=
P
A
T
H
:
PATH:
PATH:JAVA_HOME/bin
4、让修改后的文件生效
然后source /etc/profile
5、测试JDK是否安装成功
java -version
如:
3、安装Hadoop
0、Hadoop下载地址:
https://archive.apache.org/dist/hadoop/common/hadoop-2.7.2/
1、将hadoop-2.7.2.tar.gz压缩包导入到opt目录下面的software文件下
2、解压安装文件到/opt/module下面
tar -zxvf hadoop-2.7.2.tar.gz -C /opt/module/
3、将Hadoop添加到环境变量
在profile文件末尾添加JDK路径:(shitf+g)
##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH=
P
A
T
H
:
PATH:
PATH:HADOOP_HOME/bin
export PATH=
P
A
T
H
:
PATH:
PATH:HADOOP_HOME/sbin
4、让修改的文件生效
source /etc/profile
5、测试是否安装成功
hadoop version
6. 重启(如果Hadoop命令不能用再重启)
sync
reboot
4、Hadoop目录结构
1、查看Hadoop目录结构
2、重要目录
(1)bin目录:存放对Hadoop相关服务(HDFS,YARN)进行操作的脚本
(2)etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件
(3)lib目录:存放Hadoop的本地库(对数据进行压缩解压缩功能)
(4)sbin目录:存放启动或停止Hadoop相关服务的脚本
(5)share目录:存放Hadoop的依赖jar包、文档、和官方案例
四、Hadoop运行模式
Hadoop运行模式包括:本地模式、伪分布式模式以及完全分布式模式。
Hadoop官方网站:http://hadoop.apache.org/
文档:https://hadoop.apache.org/docs/r2.7.2/
1、本地运行模式
1 官方Grep案例
1、创建在hadoop-2.7.2文件下面创建一个input文件夹
[cy@hadoop01 hadoop-2.7.2]$ mkdir input
2.、将Hadoop的xml配置文件复制到input
[cy@hadoop01 hadoop-2.7.2]$ cp etc/hadoop/*.xml input
3、检查是否拷贝成功
ls input
4.、执行share目录下的MapReduce程序(hadoop-mapreduce-examples-2.7.2.jar)
[cy@hadoop01 hadoop-2.7.2]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input/ output ‘dfs[a-z.]+’
注:
grep:表示只运行其中的一个文件,因为hadoop-mapreduce-examples-2.7.2.jar里面有多个案例,依据是examples是以s结尾的
input :表示输入文件的路径
output:表示输出文件的路径,输出文件必须不存在,如果存在则出异常
'dfs[a-z.]+:表示过滤规则
5、查看输出结果
[cy@hadoop01 output]$ cat part-r-00000
2、官方WordCount案例
1、创建在hadoop-2.7.2文件下面创建一个wcinput文件夹
[cy@hadoop01 hadoop-2.7.2]$ cd wcinput
2、在wcinput文件下创建一个wc.input文件
[cy@hadoop01 hadoop-2.7.2]$ cd wcinput
[cy@hadoop01 wcinput]$ touch wc.input
3.、编辑wc.input文件
[cy@hadoop01 wcinput]$ vi wc.input t
在文件中输入如下内容
tianyi huichao Tihua zhangchen
xiaoheng xinbo xinbo gaoyang gaoyang
yanjing yanjing
保存退出::wq
4、回到Hadoop目录/opt/module/hadoop-2.7.2,执行share目录下的MapReduce程序(hadoop-mapreduce-examples-2.7.2.jar)
[cy@hadoop01 wcinput]$ cd …
[cy@hadoop01 hadoop-2.7.2]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-ee/hadoop-mapreduce-examples-2.7.2.jar wordcount wcinput/ wcoutput
注:
wordcount:表示文件中单词的个
5、查看
2、伪分布式运行模式
1、启动HDFS并运行MapReduce程序
1、分析
(1)配置集群
(2)启动、测试集群增、删、查
(3)执行WordCount案例
2.、执行步骤
1、配置集群
(a)配置:hadoop-env.sh
Linux系统中获取JDK的安装路径:
[cy@hadoop01 hadoop]$ echo
J
A
V
A
H
O
M
E
然后修改
J
A
V
A
H
O
M
E
路径:
[
c
y
@
h
a
d
o
o
p
01
h
a
d
o
o
p
]
JAVA_HOME 然后修改JAVA_HOME 路径: [cy@hadoop01 hadoop]
JAVAHOME然后修改JAVAHOME路径:[cy@hadoop01hadoop] vi hadoop-env.sh
注意:以后遇到env文件都给JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144
(b)配置:core-site.xml
[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop01 hadoop]$ vi core-site.xml
如:
core-site.xml 配置如下
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop01:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>
如:
(c)配置:hdfs-site.xml
[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop01 hadoop]$ vi hdfs-site.xml
<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
2、启动集群
(a)格式化NameNode(第一次启动时格式化,以后就不要总格式化)
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs namenode -format
(b)启动NameNode
[cy@hadoop01 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode
(c)启动DataNode
[cy@hadoop01 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start datanode
3、查看集群
(a)查看是否启动成功
[cy@hadoop01 hadoop-2.7.2]$ jps
注意:jps是JDK中的命令,不是Linux命令。不安装JDK不能使用jps
(b)web端查看HDFS文件系统
http://主机名/ip:50070/
http://hadoop01:50070/是查看HDFS的接口
**注意:**如果访问失败
1、将hadoop-env.sh、yarn-env.sh、mapred-env.sh文件的JAVA_HOME配置成绝对路径
查看绝对路径:[cy@hadoop01 hadoop]$ echo $JAVA_HOME
[cy@hadoop01 hadoop]$ vi hadoop-env.sh
[cy@hadoop01 hadoop]$ vi yarn-env.sh
[cy@hadoop01 hadoop]$ vi mapred-env.sh
如:
2、配置hdfs-site.xml
<property>
<name>dfs.http.address</name>
<value>主机名:50070</value>
</property>
[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop01 hadoop]$ vi hdfs-site.xml
3、一定要关闭防火墙
关闭防火墙:service iptables stop
永久关闭防火墙:chkconfig iptables off
4、将selinux/config的SELINUX改为disabled
[root@djt002 hadoop]# vi /etc/selinux/config
4、集群的操作
操作命令:bin/hdfs dfs
例1:在HDFS文件系统上创建一个input文件夹(在hadoop-2.7.2目录下创建/user/cy/input)
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -mkdir -p /user/cy/input
例2:将测试文件内容上传到文件系统上(将hadoop-2.7.2目录下的wcinput/wc.input上传到/user/cy/input下)
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -put wcinput/wc.input /user/cy/input
**例3:**查看上传的文件是否正确
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -ls /user/cy/input/
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -cat /user/atguigu/ input/wc.input
**例4:**运行MapReduce程序
[cy@hadoop01 hadoop-2.7.2]$ bin/hadoop jarshare/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/cy/input/ /user/cy/output
例5: 查看输出结果,如果想要查看文件内容
命令行查看:
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -cat /user/cy/output/p*
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -cat /user/cy/input/w*
注意:w*表示以w开头的的文件
浏览器查看:
例6: 将测试文件内容下载到本地
[cy@hadoop01 hadoop-2.7.2]$ hdfs dfs -get /user/cy/output/part-r-00000 ./wcoutput/
例7: 删除输出结果
[cy@hadoop01 hadoop-2.7.2]$ hdfs dfs -rm -r /user/cy/output
5、查看产生的Log日志
说明:在企业中遇到Bug时,经常根据日志提示信息去分析问题、解决Bug。
当前目录:/opt/module/hadoop-2.7.2/logs
3、NameNode格式化注意事项
思考:为什么不能一直格式化NameNode,格式化NameNode,要注意什么?
注意: 因为NameNode和DataNode的id一致,格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。所以,格式NameNode时,一定要先删除data数据和log日志,然后再格式化NameNode。
如:
2、启动YARN并运行MapReduce程序
1.、分析
(1)配置集群在YARN上运行MR
(2)启动、测试集群增、删、查
(3)在YARN上执行WordCount案例
2.、执行步骤
1、配置集群
(a)配置yarn-env.sh
配置一下JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144
[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop01 hadoop]$ vi yarn-env.sh
(b)配置yarn-site.xml
<!-- Reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop101</value>
</property>
[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop01 hadoop]$ vi yarn-site.xml
(c)配置:mapred-env.sh
配置一下JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144
[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop01 hadoop]$ vi mapred-env.sh
(d)配置: (对mapred-site.xml.template重新命名为) mapred-site.xml
<!-- 指定MR运行在YARN上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
[cy@hadoop01 hadoop]$ mv mapred-site.xml.template mapred-site.xml
[cy@hadoop01 hadoop]$ vi mapred-site.xml
2、启动集群
启动前必须保证NameNode和DataNode已经启动
(a)启动ResourceManager
[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh start resourcemanager
(b)启动NodeManager
[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager
©检查是否启动成功
[cy@hadoop01 hadoop-2.7.2]$ jps
3、集群操作
(a)YARN的浏览器页面查看
http://hadoop01:8088/cluster
http://hadoop01:8088/cluster : 是查看MapReduce程序运行的进程
http://hadoop01:50070/ :是查看HDFS的接口
(b)删除文件系统上的output文件
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -rm -R /user/cy/output
(c)执行MapReduce程序
[cy@hadoop101 hadoop-2.7.2]$ bin/hadoop jar
share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/atguigu/input /user/atguigu/output
(d)查看运行结果
[cy@hadoop101 hadoop-2.7.2]$ bin/hdfs dfs -cat /user/cy/output/*
3、配置历史服务器
为了查看程序的历史运行情况,需要配置一下历史服务器。具体配置步骤如下:
1、配置mapred-site.xml
在该文件里面增加如下配置。
<!-- 历史服务器端地址 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop101:10020</value>
</property>
<!-- 历史服务器web端地址 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop101:19888</value>
</property>
[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop101 hadoop]$ vi mapred-site.xml
2、启动历史服务器
[cy@hadoop101 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh start historyserver
3、查看历史服务器是否启动
[cy@hadoop101 hadoop-2.7.2]$ jps
4、查看JobHistory
http://hadoop01:19888/jobhistory
4、配置日志的聚集
日志聚集概念: 应用运行完成以后,将程序运行日志信息上传到HDFS系统上。
日志聚集功能好处: 可以方便的查看到程序运行详情,方便开发调试。
注意: 开启日志聚集功能,需要重新启动NodeManager 、ResourceManager和HistoryManager。
1、关闭NodeManager 、ResourceManager和HistoryManager
[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop nodemanager
[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop resourcemanager
[cy@hadoop01 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh stop historyserver
开启日志聚集功能具体步骤如下:
2、配置yarn-site.xml
在该文件里面增加如下配置。
<!-- 日志聚集功能使能 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 日志保留时间设置7天 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
[cy@hadoop01 hadoop-2.7.2]$ cd etc/hadoop
[cy@hadoop101 hadoop]$ vi yarn-site.xml
3、开启NodeManager 、ResourceManager和HistoryManager
[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh start resourcemanager
[cy@hadoop01 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager
[cy@hadoop01 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh start historyserver
4、删除HDFS上已经存在的输出文件
[cy@hadoop01 hadoop-2.7.2]$ bin/hdfs dfs -rm -r /user/cy/output
5、执行WordCount程序
[cy@hadoop01 hadoop-2.7.2]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/cy/input /user/cy/output
6、查看日志,
http://hadoop01:19888/jobhistory
或点击logs查看
5、配置文件说明
Hadoop配置文件分两类:默认配置文件和自定义配置文件,只有用户想修改某一默认配置值时,才需要修改自定义配置文件,更改相应属性值。
1、默认配置文件:
要获取的默认文件 文件存放在Hadoop的jar包中的位置
[core-default.xml] hadoop-common-2.7.2.jar/ core-default.xml
[hdfs-default.xml] hadoop-hdfs-2.7.2.jar/ hdfs-default.xml
[yarn-default.xml] hadoop-yarn-common-2.7.2.jar/ yarn-default.xml
[mapred-default.xml] hadoop-mapreduce-client-core-2.7.2.jar/ mapred-default.xml
2、自定义配置文件:
core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml四个配置文件存放在$HADOOP_HOME/etc/hadoop这个路径上,用户可以根据项目需求重新进行修改配置。
3、完全分布式运行模式(开发重点)
1、分析:
1)准备3台客户机(关闭防火墙、静态ip、主机名称)
2)安装JDK
3)配置环境变量
4)安装Hadoop
5)配置环境变量
6)配置集群
7)单点启动
8)配置ssh
9)群起并测试集群
2、虚拟机准备(三台)
详见《三、Hadoop运行环境搭建(开发重点)1、虚拟机环境准备》
3、编写集群分发脚本xsync
1、scp(secure copy)安全拷贝
(1)scp定义:
scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)
(2)基本语法
scp -r $pdir/$fname $user@hadoop$host:$pdir/$fname
命令 递归 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
(3)案例实操
(a) 在hadoop01上,将hadoop01中/opt/module目录下的软件拷贝到hadoop02上。
[cy@hadoop01 opt]$ scp -r module root@hadoop02:/opt/module
如果报:
则用ip地址
[cy@hadoop01 opt]$ scp -r module root@192.168.188.104:/opt/module
(b) 在hadoop03上,将hadoop01服务器上的/opt/module目录下的软件拷贝到hadoop03上。
[cy@hadoop103 opt]$ sudo scp -r cy@hadoop01:/opt/module root@hadoop03:/opt/module ./
//注意:./表示拷贝到opt的当前路径下
(c) 在hadoop03上操作将hadoop01中/opt/module目录下的软件拷贝到hadoop04上。
[cy@hadoop103 opt]$ scp -r cy@hadoop101:/opt/module root@hadoop104:/opt/module
注意: 拷贝过来的/opt/module目录,别忘了在hadoop02、hadoop03、hadoop04上修改所有文件的,所有者和所有者组。
[cy@hadoop02 opt]$ sudo chown cy:cy -R /opt/module
(d) 将hadoop01中/etc/profile文件拷贝到hadoop02的/etc/profile上。
[cy@hadoop01 ~]$ sudo scp /etc/profile root@hadoop02:/etc/profile
注意: 拷贝过来的配置文件(profile)别忘了source一下/etc/profile
[cy@hadoop02 module]$ source /etc/profile
2、 rsync 远程同步工具
rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。
(1)基本语法
rsync -rvl $pdir/$fname $user@hadoop$host:$pdir/$fname
命令 选项参数 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
选项参数说明
选项 | 功能 |
---|---|
-r | 递归 |
-v | 显示复制过程 |
-l | 拷贝符号连接 |
(2)案例实操
把hadoop01机器上的/opt/software目录同步到hadoop02服务器的root用户下的/opt/目录
[cy@hadoop01 opt]$ rsync -rvl /opt/software/ root@hadoop02:/opt/software
3、xsync集群分发脚本
(1)需求: 循环复制文件到所有节点的相同目录下
(2)需求分析:
-
(a)rsync命令原始拷贝:
rsync -rvl /opt/module root@hadoop103:/opt/
-
(b)期望脚本:
xsync要同步的文件名称 -
(c)说明:在/home/atguigu/bin这个目录下存放的脚本,atguigu用户可以在系统任何地方直接执行。
(3)脚本实现: -
(a)在/home/cy目录下创建bin目录,并在bin目录下xsync创建文件,文件内容如下:
[cy@hadoop102 ~]$ mkdir bin [cy@hadoop102 ~]$ cd bin/ [cy@hadoop102 bin]$ touch xsync [cy@hadoop102 bin]$ vi xsync
在该文件中编写如下代码
#!/bin/bash #1 获取输入参数个数,如果没有参数,直接退出 pcount=$# if((pcount==0)); then echo no args; exit; fi #2 获取文件名称 p1=$1 fname=`basename $p1` echo fname=$fname #3 获取上级目录到绝对路径 pdir=`cd -P $(dirname $p1); pwd` echo pdir=$pdir #4 获取当前用户名称 user=`whoami` #5 循环 for((host=103; host<105; host++)); do echo ------------------- hadoop$host -------------- rsync -rvl $pdir/$fname $user@hadoop$host:$pdir done
-
(b)修改脚本 xsync 具有执行权限
[cy@hadoop102 bin]$ chmod 777 xsync
-
(c)调用脚本形式:xsync 文件名称
[cy@hadoop102 ~]$ xsync bin/
注意: 如果将xsync放到/home/cy/bin目录下仍然不能实现全局使用,可以将xsync移动到/usr/local/bin目录下。
4、集群配置
1、集群部署规划
2、配置集群
(1)核心配置文件
配置core-site.xml
[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi core-site.xml
在该文件中编写如下配置
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop02:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>
(2)HDFS配置文件
配置hadoop-env.sh
[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi hadoop-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置hdfs-site.xml
[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi hdfs-site.xml
在该文件中编写如下配置
<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop04:50090</value>
</property>
(3)YARN配置文件
配置yarn-env.sh
[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi yarn-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置yarn-site.xml
[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi yarn-site.xml
在该文件中增加如下配置
<!-- Reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop103</value>
</property>
(4)MapReduce配置文件
配置mapred-env.sh
[cy@hadoop02 hadoop-2.7.2]$ cd etc/hadoop/
[cy@hadoop102 hadoop]$ vi mapred-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置mapred-site.xml
[cy@hadoop102 hadoop]$ cp mapred-site.xml.template mapred-site.xml
[cy@hadoop102 hadoop]$ vi mapred-site.xml
在该文件中增加如下配置
<!-- 指定MR运行在Yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
3、在集群上分发配置好的Hadoop配置文件
[cy@hadoop02 hadoop]$ xsync /opt/module/hadoop-2.7.2/
4、查看文件分发情况
[cy@hadoop03 hadoop]$ cat /opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml
5、集群单点启动
(1)如果集群是第一次启动,需要格式化NameNode
[cy@hadoop102 hadoop-2.7.2]$ hadoop namenode -format
(2)在hadoop102上启动NameNode
[cy@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start namenode
(3)在hadoop102、hadoop103以及hadoop104上分别启动DataNode
[cy@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
[cy@hadoop102 hadoop-2.7.2]$ jps
[cy@hadoop103 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
[cy@hadoop103 hadoop-2.7.2]$ jps
[cy@hadoop104 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
[cy@hadoop104 hadoop-2.7.2]$ jps
6、SSH无密登录配置
1、配置ssh
(1)基本语法
ssh另一台电脑的ip地址
(2)ssh连接时出现Host key verification failed的解决方法
[cy@hadoop102 opt] $ ssh 192.168.1.103
The authenticity of host ‘192.168.1.103 (192.168.1.103)’ can’t be established.
RSA key fingerprint is cf:1e🇩🇪d7:d0:4c:2d:98:60:b4:fd:ae:b1:2d:ad:06.
Are you sure you want to continue connecting (yes/no)?
Host key verification failed.
(3)解决方案如下:直接输入yes
2、无密钥配置
(1)免密登录原理
用ssh-keygen生成秘钥对,再将公钥拷贝到Authorized_keys,当ssh方法服务器B时(数据用私钥A加密),B服务器接收到数据后,去授权文件中把公钥key拿出来,解决接收的私钥,解密完后用A公钥加密数据然后返回给A
(2)生成公钥和私钥:
[cy@hadoop102 ~]$ ls -al
[cy@hadoop102 ~]$ cd .ssh
[cy@hadoop102 .ssh]$ ssh-keygen -t rsa
然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
(3)将公钥拷贝到要免密登录的目标机器上
[cy@hadoop102 .ssh]$ ssh-copy-id hadoop102 //本身也需要生成一次
[cy@hadoop102 .ssh]$ ssh-copy-id hadoop103
[cy@hadoop102 .ssh]$ ssh-copy-id hadoop104
注意:
还需要在hadoop102上采用root账号,配置一下无密登录到hadoop102、hadoop103、hadoop104;
还需要在hadoop103上采用cy账号配置一下无密登录到hadoop102、hadoop103、hadoop104服务器上。
3、.ssh文件夹下(~/.ssh)的文件功能解释
7、群起集群
1. 配置slaves
/opt/module/hadoop-2.7.2/etc/hadoop/slaves
[cy@hadoop102 hadoop]$ vi slaves
在该文件中增加如下内容:
hadoop102
hadoop103
hadoop104
注意: 该文件中添加的内容结尾不允许有空格,文件中不允许有空行。
同步所有节点配置文件
[cy@hadoop102 hadoop]$ xsync slaves
2. 启动集群
(1)如果集群是第一次启动,需要格式化NameNode(注意格式化之前,一定要先停止上次启动的所有namenode和datanode进程,然后再删除data和log数据)
[cy@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -format
(2)启动HDFS
[cy@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh
(3)启动YARN
[cy@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh
注意: NameNode和ResourceManger如果不是同一台机器,不能在NameNode上启动 YARN,应该在ResouceManager所在的机器上启动YARN。
(4)Web端查看SecondaryNameNode
- (a)浏览器中输入:http://hadoop104:50090/status.html
- (b)查看SecondaryNameNode信息,如图2-41所示。
3. 集群基本测试
-
(1)上传文件到集群
上传小文件[cy@hadoop102 hadoop-2.7.2]$ bin/hdfs dfs -put wcinput/wc.input /
上传大文件
[cy@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -put /opt/software/hadoop-2.7.2.tar.gz /user/cy/input
-
(2)上传文件后查看文件存放在什么位置
(a)查看HDFS文件存储路径[cy@hadoop102 subdir0]$ pwd /opt/module/hadoop-2.7.2/data/tmp/dfs/data/current/BP-938951106-192.168.10.107-1495462844069/current/finalized/subdir0/subdir0
(b)查看HDFS在磁盘存储文件内容
[cy@hadoop102 subdir0]$ cat blk_1073741825 hadoop yarn hadoop mapreduce cy cy
-
(3)拼接
-rw-rw-r--. 1 cy cy134217728 5月 23 16:01 blk_1073741836 -rw-rw-r--. 1 cy cy 1048583 5月 23 16:01 blk_1073741836_1012.meta -rw-rw-r--. 1 cy cy 63439959 5月 23 16:01 blk_1073741837 -rw-rw-r--. 1 cy cy 495635 5月 23 16:01 blk_1073741837_1013.meta [cy@hadoop102 subdir0]$ cat blk_1073741836>>tmp.file [cy@hadoop102 subdir0]$ cat blk_1073741837>>tmp.file [cy@hadoop102 subdir0]$ tar -zxvf tmp.file
-
(4)下载
[cy@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -get/user/cy/input/hadoop-2.7.2.tar.gz ./
8、集群启动/停止方式总结
1. 各个服务组件逐一启动/停止
(1)分别启动/停止HDFS组件
hadoop-daemon.sh start / stop namenode / datanode / secondarynamenode
(2)启动/停止YARN
yarn-daemon.sh start / stop resourcemanager / nodemanager
2. 各个模块分开启动/停止(配置ssh是前提)常用
(1)整体启动/停止HDFS
start-dfs.sh / stop-dfs.sh
(2)整体启动/停止YARN
start-yarn.sh / stop-yarn.sh
9、crontab定时任务设置
1、基本语法
crontab[选项]
2、选项说明
选项 | 功能 |
---|---|
-e | 编辑crontab定时任务 |
-l | 查询crontab任务 |
-r | 删除当前用户所有的crontab任务 |
3、参数说明
[root@hadoop102 ~]# crontab -e
(1) 进入crontab编辑界面
* * * * *执行的任务
说明:
(2)特殊符号
(3)特定时间执行命令
10、 集群时间同步
时间同步的方式:找一个机器,作为时间服务器,所有的机器与这台集群时间进行定时的同步,比如,每隔十分钟,同步一次时间。
配置时间同步具体实操:
- 时间服务器配置(必须root用户)
(1)检查ntp是否安装
[root@hadoop102]# rpm -qa|grep ntp
ntp-4.2.6p5-10.el6.centos.x86_64
fontpackages-filesystem-1.41-1.1.el6.noarch
ntpdate-4.2.6p5-10.el6.centos.x86_64
出现以上三个表示安装成功
(2)修改ntp配置文件
[root@hadoop102]# vi /etc/ntp.conf
修改内容如下
-
a)修改1(授权192.168.1.0-192.168.1.255网段上的所有机器可以从这台机器上查询和同步时间)
#restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap为 restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap
-
b)修改2(集群在局域网中,不使用其他互联网上的时间)
server 0.centos.pool.ntp.org iburst server 1.centos.pool.ntp.org iburst server 2.centos.pool.ntp.org iburst server 3.centos.pool.ntp.org iburst为 #server 0.centos.pool.ntp.org iburst #server 1.centos.pool.ntp.org iburst #server 2.centos.pool.ntp.org iburst #server 3.centos.pool.ntp.org iburst
-
c)添加3(当该节点丢失网络连接,依然可以采用本地时间作为时间服务器为集群中的其他节点提供时间同步)
server 127.127.1.0 fudge 127.127.1.0 stratum 10
(3)修改/etc/sysconfig/ntpd 文件
[root@hadoop102]# vim /etc/sysconfig/ntpd
增加内容如下(让硬件时间与系统时间一起同步)
SYNC_HWCLOCK=yes
(4)重新启动ntpd服务
[root@hadoop102]# service ntpd status
ntpd 已停
[root@hadoop102]# service ntpd start
正在启动 ntpd: [确定]
(5)设置ntpd服务开机启动
[root@hadoop102]# chkconfig ntpd on
2. 其他机器配置(必须root用户)
(1)在其他机器配置10分钟与时间服务器同步一次
[root@hadoop103]# crontab -e
编写定时任务如下:
*/10 * * * * /usr/sbin/ntpdate hadoop102
(2)修改任意机器时间
[root@hadoop103]# date -s "2017-9-11 11:11:11"
(3)十分钟后查看机器是否与时间服务器同步
[root@hadoop103]# date
说明: 测试的时候可以将10分钟调整为1分钟,节省时间。
五、Hadoop编译源码(面试重点)
1 前期准备工作
1. CentOS联网
配置CentOS能连接外网。Linux虚拟机ping www.baidu.com 是畅通的
注意:采用root角色编译,减少文件夹权限出现问题
2. jar包准备(hadoop源码、JDK8、maven、ant 、protobuf)
(1)hadoop-2.7.2-src.tar.gz
(2)jdk-8u144-linux-x64.tar.gz
(3)apache-ant-1.9.9-bin.tar.gz(build工具,打包用的)
(4)apache-maven-3.0.5-bin.tar.gz
(5)protobuf-2.5.0.tar.gz(序列化的框架)
2 jar包安装
注意:所有操作必须在root用户下完成
1.JDK解压、配置环境变量 JAVA_HOME和PATH,验证java-version(如下都需要验证是否配置成功)
[root@hadoop101 software] # tar -zxf jdk-8u144-linux-x64.tar.gz -C /opt/module/
[root@hadoop101 software]# vi /etc/profile
#JAVA_HOME:
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin
[root@hadoop101 software]#source /etc/profile
验证命令:java -version
2.Maven解压、配置 MAVEN_HOME和PATH
[root@hadoop101 software]# tar -zxvf apache-maven-3.0.5-bin.tar.gz -C /opt/module/
[root@hadoop101 apache-maven-3.0.5]# vi conf/settings.xml
<mirrors>
<!-- mirror
| Specifies a repository mirror site to use instead of a given repository. The repository that
| this mirror serves has an ID that matches the mirrorOf element of this mirror. IDs are used
| for inheritance and direct lookup purposes, and must be unique across the set of mirrors.
|
<mirror>
<id>mirrorId</id>
<mirrorOf>repositoryId</mirrorOf>
<name>Human Readable Name for this Mirror.</name>
<url>http://my.repository.com/repo/path</url>
</mirror>
-->
<mirror>
<id>nexus-aliyun</id>
<mirrorOf>central</mirrorOf>
<name>Nexus aliyun</name>
<url>http://maven.aliyun.com/nexus/content/groups/public</url>
</mirror>
</mirrors>
[root@hadoop101 apache-maven-3.0.5]# vi /etc/profile
#MAVEN_HOME
export MAVEN_HOME=/opt/module/apache-maven-3.0.5
export PATH=$PATH:$MAVEN_HOME/bin
[root@hadoop101 software]#source /etc/profile
验证命令:mvn -version
3.ant解压、配置 ANT _HOME和PATH
[root@hadoop101 software]# tar -zxvf apache-ant-1.9.9-bin.tar.gz -C /opt/module/
[root@hadoop101 apache-ant-1.9.9]# vi /etc/profile
#ANT_HOME
export ANT_HOME=/opt/module/apache-ant-1.9.9
export PATH=$PATH:$ANT_HOME/bin
[root@hadoop101 software]#source /etc/profile
验证命令:ant -version
4.安装 glibc-headers 和 g++ 命令如下
[root@hadoop101 apache-ant-1.9.9]# yum install glibc-headers
[root@hadoop101 apache-ant-1.9.9]# yum install gcc-c++
5.安装make和cmake
[root@hadoop101 apache-ant-1.9.9]# yum install make
[root@hadoop101 apache-ant-1.9.9]# yum install cmake
6.解压protobuf ,进入到解压后protobuf主目录,/opt/module/protobuf-2.5.0,然后相继执行命令
[root@hadoop101 software]# tar -zxvf protobuf-2.5.0.tar.gz -C /opt/module/
[root@hadoop101 opt]# cd /opt/module/protobuf-2.5.0/
[root@hadoop101 protobuf-2.5.0]#./configure
[root@hadoop101 protobuf-2.5.0]# make
[root@hadoop101 protobuf-2.5.0]# make check
[root@hadoop101 protobuf-2.5.0]# make install
[root@hadoop101 protobuf-2.5.0]# ldconfig
[root@hadoop101 hadoop-dist]# vi /etc/profile
#LD_LIBRARY_PATH
export LD_LIBRARY_PATH=/opt/module/protobuf-2.5.0
export PATH=$PATH:$LD_LIBRARY_PATH
[root@hadoop101 software]#source /etc/profile
验证命令:protoc --version
7.安装openssl库
[root@hadoop101 software]#yum install openssl-devel
8.安装 ncurses-devel库
[root@hadoop101 software]#yum install ncurses-devel
到此,编译工具安装基本完成。
3 编译源码
1. 解压源码到/opt/目录
[root@hadoop101 software]# tar -zxvf hadoop-2.7.2-src.tar.gz -C /opt/
2. 进入到hadoop源码主目录
[root@hadoop101 hadoop-2.7.2-src]# pwd
/opt/hadoop-2.7.2-src
3. 通过maven执行编译命令
[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,native -DskipTests -Dtar
等待时间30分钟左右,最终成功是全部SUCCESS,如图所示。
4. 成功的64位hadoop包在/opt/hadoop-2.7.2-src/hadoop-dist/target下
[root@hadoop101 target]# pwd
/opt/hadoop-2.7.2-src/hadoop-dist/target
5. 编译源码过程中常见的问题及解决方案
(1)MAVEN install时候JVM内存溢出
处理方式:在环境配置文件和maven的执行文件均可调整MAVEN_OPT的heap大小。(详情查阅MAVEN 编译 JVM调优问题,如:http://outofmemory.cn/code-snippet/12652/maven-outofmemoryerror-method)
(2)编译期间maven报错。可能网络阻塞问题导致依赖库下载不完整导致,多次执行命令(一次通过比较难):
[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,nativeN -DskipTests -Dtar
(3)报ant、protobuf等错误,插件下载未完整或者插件版本问题,最开始链接有较多特殊情况,同时推荐
2.7.0版本的问题汇总帖子 http://www.tuicool.com/articles/IBn63qf
各个接口的作用
http://hadoop01:8088/cluster :是查看MapReduce程序运行的进程**
http://hadoop01:50070/:是查看HDFS的接口
http://hadoop101:19888/jobhistory: 查看日志