摸鱼大数据——Linux搭建大数据环境(Hadoop高可用环境搭建)六

news2025/1/19 23:28:06

Hadoop高可用环境搭建

确定提前安装好了hadoop和zookeeper

1.删除原有数据文件

三台机器都要进行删除

可以使用CRT发送交互到所有会话

rm -rf /export/data/hadoop-3.3.0

2.安装软件

三台机器都要进行安装

注意: 如果网络较慢安装失败,那就重复安装即可

# 实现多个服务的通讯
yum install psmisc -y  

3.修改配置文件

先只修改node1,最后拷贝给其他机器

进入hadoop目录
[root@node1 /]# cd /export/server/hadoop-3.3.0/etc/hadoop/
[root@node1 hadoop]# ls
修改hadoop-env.sh

在文件最后添加下面两行

export HDFS_JOURNALNODE_USER=root
export HDFS_ZKFC_USER=root
修改core-site.xml

注意: 将之前 configuration 里面的内容全部替换掉

<configuration>
<!-- HA集群名称,该值要和hdfs-site.xml中的配置保持一致 -->
<property>
   <name>fs.defaultFS</name>
   <value>hdfs://cluster1</value>
</property>
​
<!-- hadoop本地磁盘存放数据的公共目录 -->
<property>
   <name>hadoop.tmp.dir</name>
   <value>/export/data/ha-hadoop</value>
</property>
​
<!-- ZooKeeper集群的地址和端口-->
<property>
   <name>ha.zookeeper.quorum</name>
   <value>node1:2181,node2:2181,node3:2181</value>
</property>
​
<!-- 整合hive 用户代理设置 -->
<property>
   <name>hadoop.proxyuser.root.hosts</name>
   <value>*</value>
</property>
​
<property>
   <name>hadoop.proxyuser.root.groups</name>
   <value>*</value>
</property>
</configuration>
​
修改hdfs-site.xml

注意: 将之前 configuration 里面的内容全部替换掉

<configuration>
<!--指定hdfs的nameservice为cluster1,需要和core-site.xml中的保持一致 -->
<property>
   <name>dfs.nameservices</name>
   <value>cluster1</value>
</property>
​
<!-- cluster1下面有两个NameNode,分别是nn1,nn2 -->
<property>
   <name>dfs.ha.namenodes.cluster1</name>
   <value>nn1,nn2</value>
</property>
​
<!-- nn1的RPC通信地址 -->
<property>
   <name>dfs.namenode.rpc-address.cluster1.nn1</name>
   <value>node1:8020</value>
</property>
​
<!-- nn1的http通信地址 -->
<property>
   <name>dfs.namenode.http-address.cluster1.nn1</name>
   <value>node1:50070</value>
</property>
​
<!-- nn2的RPC通信地址 -->
<property>
   <name>dfs.namenode.rpc-address.cluster1.nn2</name>
   <value>node2:8020</value>
</property>
​
<!-- nn2的http通信地址 -->
<property>
   <name>dfs.namenode.http-address.cluster1.nn2</name>
   <value>node2:50070</value>
</property>
​
<!-- 指定NameNode的edits元数据在JournalNode上的存放位置 -->
<property>
   <name>dfs.namenode.shared.edits.dir</name>
   <value>qjournal://node1:8485;node2:8485;node3:8485/cluster1</value>
</property>
​
<!-- 指定JournalNode在本地磁盘存放数据的位置 -->
<property>
   <name>dfs.journalnode.edits.dir</name>
   <value>/export/data/journaldata</value>
</property>
​
<!-- 开启NameNode失败自动切换 -->
<property>
   <name>dfs.ha.automatic-failover.enabled</name>
   <value>true</value>
</property>
​
<!-- 指定该集群出故障时,哪个实现类负责执行故障切换 -->
<property>
   <name>dfs.client.failover.proxy.provider.cluster1</name>
   <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
​
<!-- 配置隔离机制方法-->
<property>
   <name>dfs.ha.fencing.methods</name>
   <value>sshfence</value>
</property>
​
<!-- 使用sshfence隔离机制时需要ssh免登陆 -->
<property>
   <name>dfs.ha.fencing.ssh.private-key-files</name>
   <value>/root/.ssh/id_rsa</value>
</property>
​
<!-- 配置sshfence隔离机制超时时间 -->
<property>
   <name>dfs.ha.fencing.ssh.connect-timeout</name>
   <value>30000</value>
</property>
</configuration>
​
修改yarn-site.xml

注意: 将之前 configuration 里面的内容全部替换掉

<configuration>
<!-- 开启RM高可用 -->
<property>
   <name>yarn.resourcemanager.ha.enabled</name>
   <value>true</value>
</property>
<!-- 指定RM的cluster id -->
<property>
   <name>yarn.resourcemanager.cluster-id</name>
   <value>yrc</value>
</property>
<!-- 指定RM的名字 -->
<property>
   <name>yarn.resourcemanager.ha.rm-ids</name>
   <value>rm1,rm2</value>
</property>
<!-- 分别指定RM的地址 -->
<property>
   <name>yarn.resourcemanager.hostname.rm1</name>
   <value>node1</value>
</property>
<property>
   <name>yarn.resourcemanager.hostname.rm2</name>
   <value>node2</value>
</property>
<!-- 指定zk集群地址 -->
<property>
   <name>yarn.resourcemanager.zk-address</name>
   <value>node1:2181,node2:2181,node3:2181</value>
</property>
<property>
   <name>yarn.nodemanager.aux-services</name>
   <value>mapreduce_shuffle</value>
</property>
</configuration>
​

补充:

rz -y:上传文件。-y,如果目的地中有相同名称的文件,那么会覆盖。否则不会做任何操作

拷贝给node2
[root@node1 ~]# scp -r /export/server/hadoop-3.3.0/ node2:/export/server/
拷贝给node3
[root@node1 ~]# scp -r /export/server/hadoop-3.3.0/ node3:/export/server/

4.启动高可用服务

注意:一定要按照以下的顺序进行启动

启动Zookeeper服务

三台机器都启动

zkServer.sh start
启动journalnode服务

三台机器都要启动

hadoop-daemon.sh start journalnode

cd /export/data : 进入目录查看journaldata目录是否生成

初始化 namenode

先在node1上执行初始化

[root@node1 data]# hdfs namenode -format
​
# 查看ha-hadoop目录是否生成
[root@node1 data]# ll
总用量 0
drwxr-xr-x 3 root root 17 4月  29 16:11 ha-hadoop
drwxr-xr-x 3 root root 22 4月  29 16:11 journaldata
[root@node1 data]# pwd
/export/data
[root@node1 data]# 

将初始化生成的目录,复制到 node2 下

[root@node1 data]# scp -r /export/data/ha-hadoop/ node2:/export/data/
格式化zkfc服务

注意: 要在 node1 上进行启动

[root@node1 data]# hdfs zkfc -formatZK

启动hadoop服务

注意: 要在node1 上进行启动

DFSZKFailoverController服务真正是hadoop启动起来的

[root@node1 data]# start-all.sh
查看所有服务

 

jps

5.web页面查看

hdfs服务: 192.168.88.101:50070        192.168.88.102:50070
yarn服务: 192.168.88.101:8088         192.168.88.102:8088

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1682200.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

数字水印 | 奇异值分解 SVD 的 Python 代码实现

&#x1f951;原理&#xff1a;数字水印 | 奇异值分解 SVD 的定义、原理及性质 &#x1f951;参考&#xff1a;Python 机器学习笔记&#xff1a;奇异值分解&#xff08;SVD&#xff09;算法 正文 对于一个图像矩阵&#xff0c;我们总可以将其分解为以下形式&#xff1a; 通过…

Halcon 根据XYZ生成3D模型

Halcon 根据XYZ生成3D模型 x_points := [a_x_points, b_x_points, c_x_points]y_points := [a_y_points, b_y_points, c_y_points]z_points := [a_z_points, b_z_points, c_z_points]stop()gen_object_model_3d_from_points

某单位Oracle数据库性能优化方案参考

内容分析&#xff1a; 本文是一篇关于XX市XX单位中心数据库优化方案的详细报告。文章首先描述了数据库的现状&#xff0c;包括其运行的软件环境、硬件环境、数据存储情况以及与检测点的连接方式。接着&#xff0c;文章列出了信息系统优化的常用策略&#xff0c;并具体解释了每一…

线性回归模型之套索回归

概述 本案例是基于之前的岭回归的案例的。之前案例的完整代码如下&#xff1a; import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import Ridge, LinearRegression from sklearn.datasets import make_regression from sklearn.model_selectio…

对抗生成网络(GAN),DCGAN原理

目录 1. GAN基础原理 1.1 生成器 1.2 判别器 1.3 整体架构 2. 损失函数 3. DCGAN 3.1 问题 3.2 解决 1. GAN基础原理 GAN&#xff08;Generative Adversarial Nets&#xff09;是一种深度神经网络架构。它由生成器和判别器组成&#xff0c;生成器学习真实样本&#x…

微信公众号自定义分销商城小程序源码系统 带完整的安装代码吧以及系统部署搭建教程

系统概述 微信公众号自定义分销商城小程序源码系统是一款功能强大的电商解决方案&#xff0c;它集成了商品管理、订单处理、支付接口、分销管理等多种功能。该系统支持自定义界面设计&#xff0c;商家可根据自身需求调整商城的页面布局和风格&#xff0c;打造独特的品牌形象。…

月薪20K+的策划人简历应该怎么写?

一般咱们大多数策划在写简历前&#xff0c;都是先直接找模板&#xff0c;然后按照模板的框架直接往里面填内容。 最后草草收场&#xff0c;直接拿去海投简历&#xff0c;结果发现没有拿到任何面试邀约。 策划写简历前的第一件事要梳理自己的能力模型和岗位JD。 因为只有先梳…

解决谷歌浏览器无法登陆网站的问题,左下角弹出JavaScript(void:0)

破釜沉舟&#xff0c;全都试一遍&#xff1a; 如果还不行&#xff0c;那就关闭GPU加速&#xff1a;关了瞬间就好了 关闭之后&#xff0c;再打开GPU加速还是行的&#xff08;咱也不知道为啥呀&#xff09;

究极完整版!!Centos6.9安装最适配的python和yum,附带教大家如何写Centos6.9的yum.repos.d配置文件。亲测可行!

前言&#xff01; 这里我真是要被Centos6.9给坑惨了&#xff0c;最刚开始学习linux的时候并没有在意那么的&#xff0c;没有考虑到选版本问题&#xff0c;直到23年下半年&#xff0c;官方不维护Centos6.9了&#xff0c;基本上当时配置的文件和安装的依赖都用不了了&#xff0c…

DCMM(数据管理能力成熟度模型)对企业的价值

随着大数据时代的来临&#xff0c;数据已成为企业发展的重要驱动力。为了有效地管理和利用数据&#xff0c;企业需要建立一套完善的数据管理体系&#xff0c;而DCMM&#xff08;数据管理能力成熟度模型&#xff09;正是这样一个帮助企业构建和优化数据管理能力的框架。 DCMM结构…

05-应用级开发者 AI 时代破局点

后端应用级开发者该如何拥抱 AI GC&#xff1f;就是在这样的一个大的浪潮下&#xff0c;我们的传统的应用级开发者。我们该如何选择职业或者是如何去快速转型&#xff0c;跟上这样的一个行业的一个浪潮? 0 AI金字塔模型 越往上它的整个难度就是职业机会也好&#xff0c;或者说…

Ubuntu 24 换国内源及原理 (阿里源)

备份原文件 sudo cp /etc/apt/sources.list.d/ubuntu.sources /etc/apt/sources.list.d/ubuntu.sources.bak 编辑源文件 sudo gedit /etc/apt/sources.list.d/ubuntu.sources &#xff08;阿里源&#xff09; Types: deb deb-src URIs: https://mirrors.aliyun.com/ubunt…

ArcGIS arcpy代码工具——关于标识码的那些事(查找最大标识码、唯一性检查、重排序、空值赋值)

系列文章目录 ArcGIS arcpy代码工具——批量对MXD文件的页面布局设置修改 ArcGIS arcpy代码工具——数据驱动工具批量导出MXD文档并同步导出图片 ArcGIS arcpy代码工具——将要素属性表字段及要素截图插入word模板 ArcGIS arcpy代码工具——定制属性表字段输出表格 ArcGIS arc…

二. Ast - 反混淆(基础篇-api的使用)

在线代码转AST语法树网站&#xff1a;AST explorer 什么是path对象 通过以下的代码&#xff0c;对以上图片中的AST语法树做例子。 VariableDeclarator(path) 是一个函数&#xff0c;表示 traverse 遍历AST时&#xff0c;要进入的节点path 参数&#xff0c;表示当前正在遍历的节…

Conda 常用命令大全

Conda 常用命令大全 配置源conda配置清华源pip配置清华源 环境管理创建一个新的虚拟环境列出虚拟环境激活虚拟环境退出虚拟环境删除虚拟环境复制某个虚拟环境 conda包管理列出全部包安装包卸载包 pip包管理列出全部包安装包卸载包 其他命令查询 conda 版本查看环境信息 简介&am…

某东-绑卡

声明 本文章中所有内容仅供学习交流使用&#xff0c;不用于其他任何目的&#xff0c;抓包内容、敏感网址、数据接口等均已做脱敏处理&#xff0c;严禁用于商业用途和非法用途&#xff0c;否则由此产生的一切后果均与作者无关&#xff01;wx a15018601872 本文章未…

element 表格滚动条滑动,表格错位

解决办法&#xff08;主要是根据滚动条的宽度决定的&#xff0c;可自行调整&#xff09; 1、.el-table__header-wrapper { width: 99.3% !important; } 2、.el-table__header-wrapper { padding-right: 10px!important; }

鸿蒙应用布局ArkUI:【其他常用布局容器和组件】介绍

其他常用布局容器和组件 创建轮播&#xff08;Swiper&#xff09;实现轮播图功能 开发前请熟悉鸿蒙开发指导文档&#xff1a;gitee.com/li-shizhen-skin/harmony-os/blob/master/README.md点击或者复制转到。 栅格布局&#xff08;GridRow/GridCol&#xff09;和Grid布局类似…

RockTree Capital石木资本品牌升级 沉浸式“加密朋克风”网站震撼上线

总部位于北京的领先的Web3 原生加密基金与投资机构 RockTree Capital 石木资本&#xff0c;宣布推出全新沉浸式网站&#xff0c;在其中呈现一个未来主义电影风格概念&#xff1a;赛博朋克加密城市。这个前沿互动型城市景观代表着 RockTree Capital 对 Web3 普及以及技术、金融与…

白鲸开源CEO郭炜在2024 DataOps发展大会上获聘专家

2024年5月15日&#xff0c;白鲸开源CEO郭炜在2024 DataOps发展大会上被正式聘任为DataOps专家&#xff0c;并获得了荣誉证书。本次大会由中国通信标准化协会主办&#xff0c;中关村科学城管委会提供支持&#xff0c;大数据技术标准推进委员会&#xff08;CCSATC601&#xff09;…