接上篇文章,完成Hadoop集群部署实验

news2024/9/22 21:19:27

这里写目录标题

  • 一、实验介绍
    • 1.1 实验内容
    • 1.2 实验知识点
    • 1.3 实验环境
    • 1.4 实验资源
    • 1.5 实验步骤清单
  • 二、实验架构
  • 三、实验环境准备
  • 四、实验步骤
    • 4.1 查看环境
    • 4.2部署Hadoop集群
      • 4.2.1安装hadoop(master)
      • 4.2.2创建hdfs数据文件存储目录(master)
      • 4.2.3修改配置文件(master)
      • 4.2.4主从节点同步(master)
    • 4.3测试Hadoop集群
      • 4.3.1启动集群
  • 五、实验总结

一、实验介绍

1.1 实验内容

基于开源软件搭建满足企业需求的Hadoop生态系统,构建基础的大数据分析平台。
本实验采用4台机器搭建Hadoop完全分布式集群,其中1台机器作为Master节点,另外三台机器作为Slave节点,主机名分别为Slave1,Slave2和Slave3。

1.2 实验知识点

Hadoop集群部署
HDFS分布式文件系统管理

1.3 实验环境

Hadoop2.7.3
VMware Workstation 16 Pro for Windows

1.4 实验资源

资源名称存储目录
hadoop安装包/opt/software/package/

在这里插入图片描述

1.5 实验步骤清单

检查实验环境(防火墙、hosts配置、ssh互信)
可以参考搭建Hadoop集群环境
部署hadoop集群(安装hadoop、创建hdfs数据文件、修改配置文件、主从节点同步)
测试hadoop集群(启动集群、验证集群)

二、实验架构

序号IP地址机器名
1172.25.10.140master
2172.25.10.141slave1
3172.25.10.142slave2
4172.25.10.143slave3

三、实验环境准备

启动虚拟机master、slave1,slave2和slave3的快照。
输入用户名root密码root登录系统。

四、实验步骤

4.1 查看环境

#关闭防火墙命令
systemctl stop firewalld
#检查防火墙是否关闭
firewall-cmd --state
在这里插入图片描述

#检查四台虚拟机hosts文件
cat /etc/hosts
1

#检查ssh环境
ssh slave1 date
ssh slave2 date
ssh slave3 date
2

4.2部署Hadoop集群

4.2.1安装hadoop(master)

#解压安装包
tar zxvf /opt/software/package/hadoop-2.7.3.tar.gz -C /usr/local/

#重命名Hadoop安装目录
mv /usr/local/hadoop-2.7.3 /usr/local/hadoop

4.2.2创建hdfs数据文件存储目录(master)

#删除并创建hdfs数据文件存储目录
rm -rf /home/hadoopdir
mkdir /home/hadoopdir
#创建临时文件存储目录
mkdir /home/hadoopdir/tmp
#创建namenode数据目录
mkdir -p /home/hadoopdir/dfs/name
#创建datanode数据目录
mkdir /home/hadoopdir/dfs/data
在这里插入图片描述

4.2.3修改配置文件(master)

1、配置环境变量
#检查环境变量

vim /etc/profile
#末尾添加
export HADOOP_INSTALL=/usr/local/hadoop
export PATH=${HADOOP_INSTALL}/bin:${HADOOP_INSTALL}/sbin:${PATH}

在这里插入图片描述

#/etc/profile文件生效
source /etc/profile

#hadoop-env.sh配置JAVA_HOME

vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh```

export JAVA_HOME=/usr/local/jdk/jre


#验证Hadoop版本
```hadoop version```
![在这里插入图片描述](https://img-blog.csdnimg.cn/a030600780f84b309a00b824ec054e29.png)


2、修改core-site.xml内容参考如下
```vim /usr/local/hadoop/etc/hadoop/core-site.xml```
fs.defaultFS hdfs://master:9000 io.file.buffer.size 131072 hadoop.tmp.dir file:/home/hadoopdir/tmp/ A base for other temporary directories. hadoop.proxyuser.hadoop.hosts * hadoop.proxyuser.hadoop.groups * ``` 3、修改hdfs-site.xml文件 ```vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml``` ``` dfs.namenode.name.dir file:///home/hadoopdir/dfs/name dfs.datanode.data.dir file:///home/hadoopdir/dfs/data dfs.replication 2 dfs.webhdfs.enabled true ``` 4、修改mapred-site.xml #复制配置文件 ```cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml```

#修改配置文件
vim /usr/local/hadoop/etc/hadoop/mapred-site.xml

<configuration>         
<property> 
      <name>mapreduce.framework.name</name>
          <value>yarn</value>
           </property>
          <property>
                  <name>mapreduce.jobhistory.address</name>
                  <value>master:10020</value>
          </property>
          <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>master:19888</value>
       </property>
 <property>
                <name>mapreduce.jobtracker.http.address</name>
                <value>master:50030</value>
       </property>
 <property>
                <name>mapred.job.tracker</name>
                <value>master:9001</value>
       </property>
</configuration>

5、修改 yarn-site.xml
vi /usr/local/hadoop/etc/hadoop/yarn-site.xml

<configuration>
<!-- Site specific YARN configuration properties -->
        <property>
               <name>yarn.nodemanager.aux-services</name>
               <value>mapreduce_shuffle</value>
        </property>
        <property>  
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>  
               <name>yarn.resourcemanager.hostname</name>
               <value>master</value>
       </property>  
        <property>   
               <name>yarn.resourcemanager.address</name>
               <value>master:8032</value>
       </property>
       <property>       
<name>yarn.resourcemanager.scheduler.address</name>
               <value>master:8030</value>
       </property>
       <property>   
<name>yarn.resourcemanager.resource-tracker.address</name>
             <value>master:8031</value>
      </property>
      <property>
              <name>yarn.resourcemanager.admin.address</name>
               <value>master:8033</value>
       </property>
       <property>
               <name>yarn.resourcemanager.webapp.address</name>
               <value>master:8088</value>
       </property>
</configuration>

6、修改 slaves文件
vim /usr/local/hadoop/etc/hadoop/slaves

slave1
slave2
slave3

7、初始化HDFS
hadoop namenode -format
在这里插入图片描述

备注:最后出现“util.ExitUtil: Exiting with status 0”,表示成功。

4.2.4主从节点同步(master)

1、同步/usr/local/hadoop目录文件到slave节点
scp -r /usr/local/hadoop slave1:/usr/local/
scp -r /usr/local/hadoop/ slave2:/usr/local/
scp -r /usr/local/hadoop/ slave3:/usr/local/

2、同步/home/hadoopdir目录文件到slave节点
#删除目录
ssh slave1 rm -rf /home/hadoopdir
ssh slave2 rm -rf /home/hadoopdir
ssh slave3 rm -rf /home/hadoopdir
在这里插入图片描述

#同步目录
scp -r /home/hadoopdir slave1:/home/
scp -r /home/hadoopdir slave2:/home/
scp -r /home/hadoopdir slave3:/home/

在这里插入图片描述

3、同步环境信息
scp /etc/profile slave1:/etc/profile
scp /etc/profile slave2:/etc/profile
scp /etc/profile slave3:/etc/profile
在这里插入图片描述

[root@slave1 ~]# source /etc/profile
``[root@slave2 ~]# source /etc/profile [root@slave3 ~]# source /etc/profile```
在这里插入图片描述

4.3测试Hadoop集群

4.3.1启动集群

#启动hadoop集群(master)
start-all.sh
在这里插入图片描述

4.3.2验证Hadoop集群
1、JPS查看Java进程
#master
在这里插入图片描述

#slave1
在这里插入图片描述

#slave2
在这里插入图片描述
#slave3
在这里插入图片描述

2、登录网页查看
打开浏览器,登录http://172.25.10.140:50070
在这里插入图片描述

打开浏览器,查看yarn环境,登录http://172.25.10.140:8088
在这里插入图片描述

五、实验总结

本次实验采用完全分布式集群安装方式,需要提前部署JDK环境、SSH验证等过程。安装并启动后可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/12629.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

项目管理:团队执行力差,管理不善是根源

为什么说团队执行力差&#xff0c;多半是管理者的问题&#xff1f;如何提高团队的执行力&#xff1f; 1、员工不知道该做什么 项目开始一段时间&#xff0c;员工都还没弄清楚该做什么&#xff0c;是什么职位啊&#xff1f;为什么会产生这样的问题呢&#xff1f; 这是因为管理…

clickhouse使用clickhouse-keeper代替zookeeper

目录 异常现象&#xff1a; 1. clickhouse的异常日志 2. 追踪对应节点的zookeeper日志 使用clickhouse-keeper代替 zookeeper的步骤&#xff1a; 1&#xff1a; 准备 clickhouse-keeper的配置文件 1.1- 设置通信地址&#xff0c;以便对外通信 1.2- 在config.xml中…

java计算机毕业设计ssm宠物店管理系统element vue前后端分离

项目介绍 宠物店管理平台是使用JAVA的SSM技术,MySQL作为数据库开发,用户通过查看宠物,在线购买商品情况,并可以查看宠物店铺嘻嘻,实现宠物信息化管理。首先对本论文进行分析后,提出平台的相关技术,然后整理系统的需求分析,根据需求进行功能和数据库设计,最后进行系统实现和测试…

Nginx静态资源配置

Nginx配置成系统服务 把Nginx应用服务设置成为系统服务&#xff0c;方便对Nginx服务的启动和停止等相关操作&#xff0c;具体实现步骤: 在/usr/lib/systemd/system目录下添加nginx.service,内容如下: [Unit] # Unit表明该服务的描述&#xff0c;类型描述 Descriptionnginx w…

MQ(二)RabbitMQ快速入门

一、RabbitMQ 概述和安装 RabbitMQ 是基于 Erlang 语言开发的开源消息通信中间件 1. RabbitMQ的结构和概念 RabbitMQ中的几个概念&#xff1a; &#xff08;1&#xff09;channel&#xff1a;操作MQ的工具 &#xff08;2&#xff09;exchange&#xff1a;路由消息到队列中 &…

数据结构知识点补充

(67条消息) c语言怎么return ok,C语言中的 return与exit_哈哈哈可以的博客-CSDN博客 假如把i或i放入到for循环的函数体中&#xff0c;若没有变量或函数来接收其返回值&#xff0c;那么它们的作用效果也是相同的(67条消息) C语言的for循环中i和i的关系_肥嘟嘟的左卫门的博客-CSD…

1226:装箱问题 (贪心)

【题目描述】 一个工厂制造的产品形状都是长方体&#xff0c;它们的高度都是h&#xff0c;长和宽都相等&#xff0c;一共有六个型号&#xff0c;他们的长宽分别为11,22,33,44,55,66。这些产品通常使用一个66h的长方体包裹包装然后邮寄给客户。因为邮费很贵&#xff0c;所以工厂…

爬虫工具-BeautifulSoup

BeautifulSoup&#xff1a; 1. 是一个高效的网页解析库&#xff0c;可以从HTML或者XML文件中提取数据 2. 支持不同的解析器&#xff0c;可以对HTML、XML等进行解析 3. 是一个敏感又方便的网页解析库&#xff0c;处理高效&#xff0c;支持多种解析器 4. 利用它在不编写正则表达式…

Unreal 和 Unity 3D 各有什么特点?如何选择?

一、两个引擎简述 Unreal Engine VS Unity Unity是实时3D互动内容创作和运营平台。包括游戏开发、美术、建筑、汽车设计、影视在内的所有创作者&#xff0c;借助Unity将创意变成现实。Unity平台提供一整套完善的软件解决方案&#xff0c;可用于创作、运营和变现任何实时互动的…

【设计模式】软件设计原则

1. 软件设计原则&#xff1a; 为了提高系统软件的可维护性、可复用性、可扩展性和灵活性 1.1 开闭原则&#xff1a; 对扩展开放&#xff0c;对修改关闭 &#xff08;热插拔&#xff09; 实现方式&#xff1a; 通过定义接口和实现类的方式实现开闭原则&#xff0c;我们再进行…

ASEMI代理艾赛斯IXTY02N50D-TRL车规级MOSFET

编辑-Z 艾赛斯车规级MOS管IXTY02N50D-TRL参数&#xff1a; 型号&#xff1a;IXTY02N50D-TRL 漏极-源极电压&#xff08;VDS&#xff09;&#xff1a;500V 连续漏电流&#xff08;ID&#xff09;&#xff1a;200mA 功耗&#xff08;PD&#xff09;&#xff1a;25W 工作结温…

如何运营推特营销主账号

在推特上做产品推广&#xff0c;Twitter群&#xff08;发&#xff09;推王建议&#xff1a;一般需要两类账号。 主账号&#xff1a;也就是官方号&#xff0c;用来聚集粉丝&#xff0c;日常产品信息、新闻资讯发布的&#xff1b; 批量推广号&#xff1a;也叫小号或者广告号&am…

oracle数据库定义语言—DDL

文章目录1、数据定义语言2 创建表2.2 oracle 数据库中的表2.2.1 常见的数据字典表2.3 用查询创建表2.3.1 示例3 ALTER TABLE 语句3.1 添加一个新的列3.2 修改数据类型3.3 修改默认值3.4 修改列名3.5 删除一个列4、修改名称5、截断表6 、删除表&#xff08;删除表以及表结构&…

《垃圾回收算法手册 自动内存管理的艺术》——引用计数与垃圾回收器的比较(笔记)

文章目录五、引用计数5.1 引用计数算法的优缺点5.2 提升效率5.3 延迟引用计数5.4 合并引用计数5.5 环状引用计数**步骤**5.6受限域引用计数六、垃圾回收器的比较6.1 吞吐量6.2 停顿时间6.3 内存空间6.4 回收器的实现6.5 自适应系统6.6 统一垃圾回收理论6.6.1 垃圾回收的抽象6.6…

神经网络在故障诊断中的应用

人工神经网络是近年来发展迅速&#xff0c;广泛地应用于各个领域&#xff0c;包括航天&#xff0c;自动控制&#xff0c;金融&#xff0c;电子&#xff0c;制造&#xff0c;医药等多个行业&#xff0c;已经有许多成功的先例&#xff0c;并展示了更为广阔的应用前景。基于神经网…

【区块链 | 智能合约】Ethereum源代码(8)- Ethereum服务和以太坊P2P协议发送广播源码分析

在“【区块链 | 智能合约】Ethereum源代码(2)- go-ethereum 客户端入口代码和Node分析”一文中,我们提到Ethereum作为一个service,被Node 注册进去。Node start的时候会启动其注册的所有服务,Ethereum service也是一样。 一、ethereum service的初始化和启动 func geth(c…

【MySQL数据库笔记 - 进阶篇】(二)索引

✍个人博客&#xff1a;https://blog.csdn.net/Newin2020?spm1011.2415.3001.5343 &#x1f4da;专栏地址&#xff1a;暂定 &#x1f4dd;视频地址&#xff1a;黑马程序员 MySQL数据库入门到精通 &#x1f4e3;专栏定位&#xff1a;这个专栏我将会整理 B 站黑马程序员的 MySQL…

day064:File类与I/O流、绝对路径与相对路径、File类的成员方法

目录 一、什么是File类、IO流 1.File类 2.I/O流 3.File类的构造方法 二、绝对路径与相对路径 三、File类的成员方法 1.File类的创建功能 &#xff08;1&#xff09;createNewFile() 创建空的文件 &#xff08;2&#xff09;mkdir() 创建单级文…

CY5.5(Cyanine5.5) azide, 10 mM/DMSO,花菁染料Cy5.5标记叠氮

产品名称&#xff1a;花菁染料Cy5.5标记叠氮 英文名称&#xff1a;CY5.5(Cyanine5.5) azide 该染料具有远红外/近红外发射&#xff0c;可用于NIR活体成像。Cyanine5.5可以取代Cy5.5、Alexa Fluor 680和DyLight 680。 CAS:2183440-52-8 分子式:C43H49ClN6O 分子量:701.36 …

简单工厂、工厂方法、抽象工厂、抽象工厂加简单工厂

简单工厂模式&#xff1a;简单工模式时类的创建模式&#xff0c;又叫做静态工厂方法&#xff08;static Factory Method&#xff09;。简单工厂模式是一个工厂对象决定创建出哪一种产品类的实例。它存在的目的很简单&#xff1a;定义一个创建对象的接口。简单工厂模式的最大优点…