Hadoop的HDFS的集群安装部署

news2025/1/17 6:02:19

注意:主机名不要有/_等特殊的字符,不然后面会出问题。有问题可以看看第5点(问题)。

1、下载

1.1、去官网,点下载

下载地址:https://hadoop.apache.org/
在这里插入图片描述

1.2、选择下载的版本

1.2.1、最新版

在这里插入图片描述在这里插入图片描述

1.2.2、其他版本,我这里选择3.3.4

在这里插入图片描述在这里插入图片描述
在这里插入图片描述

1.3、上传,解压

HDFS是主从模式,所以在node1节点安装即可

1.3.1、上传安装包node1节点

在这里插入图片描述

1.3.2、解压到/export/server下

tar -zxvf hadoop-3.3.4.tar.gz -C /export/server

在这里插入图片描述

1.3.3、构建软链接

ln -s /export/server/hadoop-3.3.4 hadoop

在这里插入图片描述

2、配置

配置HDFS集群,我们主要涉及到如下文件的修改:

  • workers: 配置从节点(DataNode)有哪些
  • hadoop-env.sh: 配置Hadoop的相关环境变量
  • core-site.xml: Hadoop核心配置文件
  • hdfs-site.xml: HDFS核心配置文件

这些文件均存在与$HADOOP_HOME/etc/hadoop文件夹中。

进入etc下的Hadoop目录

cd ./etc/hadoop

在这里插入图片描述

2.1、配置workers文件

2.1.1、进入Hadoop目录

cd ./etc/hadoop

在这里插入图片描述

2.1.2、编辑workers文件

vim workers

配置主机名
填入的bigdata_node1,2,3是三台主机的名称
表明集群记录了三个从节点(DataNode)
在这里插入图片描述

2.2、配置hadoop-env.sh文件

vim hadoop-env.sh

在这里插入图片描述
在这里插入图片描述

# 填入如下内容
export JAVA_HOME=/export/server/jdk
export HADOOP_HOME=/export/server/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_LOG_DIR=$HADOOP_HOME/logs
  • JAVA_HOME,指明JDK环境的位置在哪
  • HADOOP_HOME,指明Hadoop安装位置
  • HADOOP_CONF_DIR,指明Hadoop配置文件目录位置
  • HADOOP_LOG_DIR,指明Hadoop运行日志目录位置

2.3、配置core-site.xml文件

vim core-site.xml
在文件内部填入如下内容
<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://bigdata_node1:8020</value>
  </property>

  <property>
    <name>io.file.buffer.size</name>
    <value>131072</value>
  </property>
</configuration>
  • key:fs.defaultFS
    含义:HDFS文件系统的网络通讯路径

  • 值:hdfs://node1:8020
    协议为hdfs://
    namenode为bigdata_node1
    namenode通讯端口为8020

  • key:io.file.buffer.size
    含义:io操作文件缓冲区大小

  • 值:131072 bit

hdfs://bigdata_node1:8020为整个HDFS内部的通讯地址,应用协议为hdfs://(Hadoop内置协议)。
表明DataNode将和node1的8020端口通讯,bigdata_node1是NameNode所在机器。
此配置固定了bigdata_node1必须启动NameNode进程。

在这里插入图片描述

2.4、配置hdfs-site.xml文件

vim hdfs-site.xml
# 在文件内部填入如下内容
<configuration>
  <property>
    <name>dfs.datanode.data.dir.perm</name>
    <value>700</value>
  </property>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>/data/nn</value>
  </property>
  <property>
    <name>dfs.namenode.hosts</name>
    <value>bigdata_node1,bigdata_node2,bigdata_node3</value>
  </property>
  
  <property>
    <name>dfs.blocksize</name>
    <value>268435456</value>
  </property>
  <property>
    <name>dfs.namenode.handler.count</name>
    <value>100</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/data/dn</value>
  </property>
</configuration>
  • key:dfs.datanode.data.dir.perm
    含义:hdfs文件系统,默认创建的文件权限设置

  • 值:700,即:rwx------

  • key:dfs.namenode.name.dir
    含义:NameNode元数据的存储位置

  • 值:/data/nn,在bigdata_node1节点的/data/nn目录下

  • key:dfs.namenode.hosts
    含义:NameNode允许哪几个节点的DataNode连接(即允许加入集群)

  • 值:bigdata_node1,bigdata_node2,bigdata_node3这三台服务器被授权

  • key:dfs.blocksize
    含义:hdfs默认块大小

  • 值:268435456(256MB)

  • key:dfs.namenode.handler.count
    含义:namenode处理的并发线程数

  • 值:100,以100个并行度处理文件系统的管理任务

  • key:dfs.datanode.data.dir
    含义:从节点DataNode的数据存储目录

  • 值:/data/dn,即数据存放在bigdata_node1,bigdata_node2,bigdata_node3三台机器的/data/dn内
    在这里插入图片描述

2.5、根据下述2个配置项:

在这里插入图片描述
在这里插入图片描述

  • namenode数据存放bigdata_node1的/data/nn
  • datanode数据存放bigdata_node1,bigdata_node2,bigdata_node3的/data/dn

所以应该

  • 在bigdata_node1节点:
    mkdir -p /data/nn
    mkdir -p /data/dn
    在这里插入图片描述

  • 在bigdata_node2和bigdata_node3节点:
    mkdir -p /data/dn
    在这里插入图片描述在这里插入图片描述

2.6、分发Hadoop文件夹

已经基本完成Hadoop的配置操作,可以从bigdata_node1将hadoop安装文件夹远程复制到bigdata_node2、bigdata_node3。

在bigdata_node1执行如下命令

cd /export/server
scp -r hadoop-3.3.4 bigdata_node2:`pwd`/
scp -r hadoop-3.3.4 bigdata_node3:`pwd`/

在这里插入图片描述
在这里插入图片描述

2.7、为hadoop配置软链接

2.7.1、在bigdata_node2执行

ln -s /export/server/hadoop-3.3.4 /export/server/hadoop

在这里插入图片描述

2.7.2、在bigdata_node3执行

ln -s /export/server/hadoop-3.3.4 /export/server/hadoop

在这里插入图片描述

2.8、配置环境变量

2.8.1、添加配置

为了方便我们操作Hadoop,可以将Hadoop的一些脚本、程序配置到PATH中,方便后续使用。

在Hadoop文件夹中的bin、sbin两个文件夹内有许多的脚本和程序,现在来配置一下环境变量。

vim /etc/profile

在/etc/profile文件底部追加如下内容

export HADOOP_HOME=/export/server/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

在这里插入图片描述

2.8.2、配置生效

source /etc/profile

在这里插入图片描述

三台服务器都要配置。

3、授权为hadoop用户

hadoop部署的准备工作基本完成。

为了确保安全,hadoop系统不以root用户启动,我们以普通用户hadoop来启动整个Hadoop服务
所以,现在需要对文件权限进行授权。

ps:请确保已经提前创建好了hadoop用户,并配置好了hadoop用户之间的免密登录。

以root身份,在bigdata_node1、bigdata_node2、bigdata_node3三台服务器上均执行如下命令

chown -R hadoop:hadoop /data
chown -R hadoop:hadoop /export

三台服务器都要。
在这里插入图片描述在这里插入图片描述

4、格式化,启动,访问

前期准备全部完成,现在对整个文件系统执行初始化。

4.1、格式化namenode

确保以hadoop用户执行

su hadoop

格式化namenode

hadoop namenode -format

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.2、启动

一键启动hdfs集群

start-dfs.sh

在这里插入图片描述
一键关闭hdfs集群

stop-dfs.sh

如果遇到命令未找到的错误,表明环境变量未配置好,可以以绝对路径执行

/export/server/hadoop/sbin/start-dfs.sh
/export/server/hadoop/sbin/stop-dfs.sh

4.3、访问

  • 在本地系统配置host的文件,就可以直接使用域名访问。
    在这里插入图片描述

在这里插入图片描述

  • http://bigdatanode1:9870,即可查看到hdfs文件系统的管理网页。
    在这里插入图片描述
    在这里插入图片描述

5、问题

5.1、一键启动hdfs集群后,jps查看没有启动的服务

在这里插入图片描述

5.2、检查日志log

java.lang.IllegalArgumentException: Does not contain a valid host:port authority: bigdata_node1:8020
	at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:232)
	at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:189)
	at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:169)
	at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddress(DFSUtilClient.java:766)
	at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddress(DFSUtilClient.java:792)
	at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddressCheckLogical(DFSUtilClient.java:810)
	at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddress(DFSUtilClient.java:772)
	at org.apache.hadoop.hdfs.server.namenode.NameNode.getRpcServerAddress(NameNode.java:578)
	at org.apache.hadoop.hdfs.server.namenode.NameNode.loginAsNameNodeUser(NameNode.java:718)
	at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:738)
	at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:1020)
	at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:995)
	at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1769)
	at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1834)
2023-09-11 00:28:53,873 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 1: java.lang.IllegalArgumentException: Does not contain a valid host:port authority: bigdata_node1:8020

在这里插入图片描述

5.3、问题原因

说是我主机与端口不对

5.3.1、ping端口号

ping bigdata_node1

5.3.2、说是端口号没放开

telnet bigdata_node1 8020

5.3.3、自己的真实原因

主机使用的hostname不合法,修改为不包含着‘.’ ‘/’ '_'等非法字符的主机名。

5.3.4、修改主机名,并把之前的配置的主机名全部改了

hostnamectl set-hostname bigdatanode1
vim /etc/hosts
vim workers
vim core-site.xml
vim hdfs-site.xml

5.4、重启启动,成功

5.4.1、先格式化namenode

hadoop namenode -format

5.4.2、再启动

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

结束!!!!!!!
hy:33


						为什么害怕独处?因为人在独处的时候,总是会听到心灵深处的声音。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/997977.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SQL数据库查询超时,查询数据库的哪些表被上锁的语句

1.异常提示 2.表语句 2.1 查询锁表的语句 select request_session_id spid,OBJECT_NAME(resource_associated_entity_id) tableName from sys.dm_tran_locks where resource_typeOBJECT * 若是下面没有显示内容&#xff0c;说明当前没有锁住的表 2.2若是有显示锁住的表&#…

【实践篇】Redis最强Java客户端(一)之Redisson入门介绍

Redisson入门介绍 文章目录 Redisson入门介绍1.1 Redisson简介1.1.1 起源和历史1.1.2 优势和特点1.1.3 与其他Java Redis客户端的比较 1.2 使用和配置1.2.1 依赖和SDK1.2.2 配置文件解析1.2.3 连接池配置 1.3 优雅的让Hash的某个Field过期2. 参考资料3. 源码地址4. Redis从入门…

9. xaml ComboBox控件

1.运行图像 2.运行源码 a.Xaml源码 <Grid Name="Grid1"><!--IsDropDownOpen="True" 默认就是打开的--><ComboBox x:Name="co

flink的网络缓冲区

背景 在flink的taskmanager进行数据交互的过程中&#xff0c;网络缓冲区是一个可以提升网络交换速度的设计&#xff0c;此外&#xff0c;flink还通过网络缓冲区实现其基于信用值credit的流量控制&#xff0c;以便尽可能的处理数据倾斜问题 网络缓冲区 在flink中每个taskmana…

Jetsonnano B01 笔记6:开启USB摄像头

今日继续我的Jetsonnano学习之路&#xff0c;今日尝试开启一下USB摄像头&#xff0c;显示拍摄的内容。 测试代码是搬运的官方说明&#xff0c;这里只是作笔记记录学习&#xff1a; 目录 额外模块准备&#xff1a; 测试代码分析&#xff1a; 运行效果&#xff1a; 额外模块准…

【Windows】磁盘管理无法删除卷

磁盘管理无法删除卷 由于HP Cloud Recovery Tool在对U盘分区时出现闪退 尝试在Windows磁盘管理中使U盘恢复“未分配状态” 右键删除卷出现报错 虚拟磁盘管理器&#xff1a;不支持该请求 ✨解决方案 使用diskpart命令行工具 在Terminal运行如下命令行 diskpart # 列出所有…

C++ day 3

1、 自行封装一个栈的类&#xff0c;包含私有成员属性&#xff1a;栈的数组、记录栈顶的变量&#xff0c;成员函数完成&#xff1a;构造函数、析构函数、拷贝构造函数、入栈、出栈、清空栈、判空、判满、获取栈顶元素、求栈的大小 stack.h #ifndef STACK_H #define STACK_H#…

业务安全详解

文章目录 一、 业务安全概述1.1 业务安全现状1.1.1 业务逻辑漏洞1.1.2 黑客攻击的目标 二、 业务安全测试2.1 业务安全测试流程2.1.1 测试准备2.1.2 业务调研2.1.3 业务建模2.1.4 业务流程梳理2.1.5 业务风险点识别2.1.6 开展测试2.1.7 撰写报告 三、 业务安全经典场景3.1 业务…

【Java 基础篇】Java Set 集合详解:轻松管理不重复元素

在 Java 编程中&#xff0c;集合是一个非常重要的概念&#xff0c;它允许我们有效地存储和管理一组对象。其中之一是 Set 集合&#xff0c;它是一种无序、不重复的数据结构&#xff0c;非常适合用于存储不重复的元素。本篇博客将深入探讨 Java 中的 Set 集合&#xff0c;从基本…

数电课程设计——课设二:交通信号灯

一、实验内容 &#xff08;1&#xff09;十字路口有 x、y 方向两组交通信号灯&#xff0c;每组有红、黄、绿灯各一个&#xff1b; &#xff08;2&#xff09;设计一个交通灯控制电路&#xff0c;模拟十字路口交通灯工作情况&#xff0c;红灯亮 35s&#xff0c;黄灯亮 5s&…

IP的基础知识

IP IP指网际互连协议&#xff0c;Internet Protocol的缩写&#xff0c;是TCP/IP体系中的网络层协议。 设计IP的目的是提高网络的可扩展性&#xff1a;一是解决互联网问题&#xff0c;实现网络的互联互通&#xff1b;二是解除顶层网络应用和底层网络技术之间的耦合。 根据端到端…

btree学习笔记

简介 btree&#xff1a;balance tree&#xff0c;平衡多叉树&#xff0c;类比avl&#xff1a;平衡二叉树&#xff0c;都是有平衡的属性 (多个子树高度一致)&#xff0c;只不过是二叉和多叉的区别。 使用场景 文件系统如extfs、jffs&#xff0c;sql&#xff0c;磁盘上的索引查…

VirtualBox(内有Centos 7 示例安装)

1常见概念以及软件安装 1.1 虚拟化技术&#xff1a; 虚拟化技术指的是将计算机的各种硬件资源加以抽象、转换、分割&#xff0c;最后组合 起来的技术。其目的和作用主要是打破硬件资源不可分的情况&#xff0c;方便程序员自 己集成所需资源。 1.2 Virtual Box 其是虚拟化技术作…

[源码系列:手写spring] IOC第十三节:Bean作用域,增加prototype的支持

为了帮助大家更深入的理解bean的作用域&#xff0c;特意将BeanDefinition的双例支持留到本章节中&#xff0c;创建Bean,相关Reader读取等逻辑都有所改动。 内容介绍 在Spring中&#xff0c;Bean的作用域&#xff08;Scope&#xff09;定义了Bean的生命周期和可见性。包括单例和…

【redis进阶】基础知识简要回顾

1. 常见功能介绍 聚合统计 使用list集合的差集、并集来统计 排序统计 SortedSet&#xff08;ZSet&#xff09;统计&#xff0c;再利用分页列出权重高的元素 二值状态统计 BitMap存储&#xff0c;获取并统计 SETBIT uid:sign:3000:202008 2 1 GETBIT uid:sign:3000:202008 2…

Linux动态链接懒加载

Linux动态链接懒加载 懒加载 最近一个名词——懒加载&#xff0c;是一种与动态链接相关的技术&#xff0c;我对它有点感兴趣&#xff0c;于是决定深入了解一番。 懒加载是一种延迟加载资源的策略&#xff0c;它将资源的加载推迟到在首次访问或需要时才执行。这意味着在应用程…

Paper: 利用RNN来提取恶意软件家族的API调用模式

论文 摘要 恶意软件家族分类是预测恶意软件特征的好方法&#xff0c;因为属于同一家族的恶意软件往往有相似的行为特征恶意软件检测或分类方法分静态分析和动态分析两种&#xff1a; 静态分析基于恶意软件中包含的特定签名进行分析&#xff0c;优点是分析的范围覆盖了整个代码…

【Unity3D】UI Toolkit自定义元素

1 前言 UI Toolkit 支持通过继承 VisualElement 实现自定义元素&#xff0c;便于通过脚本控制元素。另外&#xff0c;UI Toolkit 也支持将一个容器及其所有子元素作为一个模板&#xff0c;便于通过脚本复制模板。 如果读者对 UI Toolkit 不是太了解&#xff0c;可以参考以下内容…

《AI辞职信一键生成》告别凡俗套路,展现独特个性!

在这个科技日新月异的时代&#xff0c;我们的生活被各种应用软件深深地渗透。其中&#xff0c;讯飞星火AI大模型的应用无疑是一种创新和突破。最近&#xff0c;我有幸体验了一款名为《AI辞职信一键生成》的web应用&#xff0c;它以其独特的功能和出色的用户体验&#xff0c;让我…