2-HDFS常用命令及上传下载流程

news2024/11/24 13:58:48

HDFS

NameNode

安全模式(safemode)

  1. 当NameNode被重启的时候,自动进入安全模式

  2. 在安全模式中,NameNode首先会触发edits_inprogress文件的滚动。滚动完成之后,更新fsimage文件

  3. 更新完成之后,NameNode会将fsimage文件中的元数据加载到内存中。加载完成之后,NameNode等待DataNode的心跳

  4. 如果NameNode没有收到DataNode的心跳,那么此时NameNode就会认为这个DataNode已经lost,那么此时NameNode会将这个DataNode上的数据备份到其他的节点上来保证副本数量;如果NameNode收到了DataNode的心跳,那么会对这个DataNode上的Block存储情况进行校验。如果校验成功,那么NameNode自动退出安全模式;如果校验失败,那么NameNode会试图恢复这个DataNode上的数据(每个DataNode的全部数据都会在其他DataNode上有备份),恢复完成之后,会重新校验;校验成功之后,才会退出安全模式

  5. 在安全模式下,HDFS只提供读(下载)操作,不提供写(上传)操作

  6. 如果在合理的时间内,HDFS依然没有退出安全模式,那么说明数据已经产生了不可逆的损坏或者丢失(这个数据的所有副本都损坏或者丢失)

  7. 安全模式的命令

    命令解释
    hdfs dfsadmin -safemode enter进入安全模式
    hdfs dfsadmin -safemode leave退出安全模式
    hdfs dfsadmin -safemode get获取安全模式的状态

DataNode

  1. DataNode是HDFS的从进程,负责存储数据。DataNode会将数据以Block形式落地到本地的磁盘上
  2. Block在磁盘上的存储位置由dfs.datanode.data.dir属性来决定的,默认值是file://${hadoop.tmp.dir}/dfs/data,由hadoop.tmp.dir属性来决定
  3. DataNode会为每一个Block生成一个.meta文件,.meta文件实际上是这个Block的校验文件
  4. DataNode会通过心跳向NameNode注册信息
  5. DataNode的状态:预服役、服役、预退役、退役

SecondaryNameNode

  1. SecondaryNameNode不是NameNode的备份,而是辅助进程,用于辅助NameNode完成edits_inprogress文件的滚动和fsimage文件的更新

    1. 如果HDFS集群中存在SecondaryNameNode,那么fsimage文件的更新是由SecondaryNameNode来完成
    2. 如果HDFS集群中不存在SecondaryNameNode,那么fsimage文件的更新是由NameNode自己来完成
  2. 因此,SecondaryNameNode不是必须的进程。实际过程中,NameNode和SecondaryNameNode不是在同一个节点上

  3. fsimage文件的更新过程

    fsimage更新
  4. 由于HDFS集群的限制,HDFS集群支持两种模式

    1. 1个NameNode+1个SecondayNameNode+n个DataNode
    2. n个NameNode+n个DataNode

    考虑到NameNode作为核心节点,必须对NameNode来进行备份。所以实际过程中,采用上述的第二种结构

机架感知策略

  1. 在HDFS集群中,机架指的是逻辑机架。默认情况下,机架感知策略是不开启的

  2. 逻辑机架:通过一个映射(map)来定义主机和机架之间的关联。将主机名或者IP作为键,将机架作为值,只要值相同,就表示不同的服务器是位于相同的机架上的

    # hadoop01~hadoop03都是属于机架r1,hadoop04~05都是属于机架r2
    rack = {
    	"hadoop01":"r1",
    	"hadoop02":"r1",
    	"hadoop03":"r1",
    	"hadoop04":"r2",
    	"hadoop05":"r2"
    }
    
  3. 如果需要开启机架感知策略,那么需要在hadoop-site.xml文件中配置

    <property>
    	<name>net.topology.script.file.name</name>
        <value>脚本的路径</value>
    </property>
    

    实际过程中,一般是通过shell或者python来定义脚本文件

  4. 理论上而言,可以将同一个物理机架上的节点配置到不同的逻辑机架上,也可以将不同物理机架上的节点配置到同一个逻辑机架上

副本放置策略

  1. HDFS为了保证数据的可靠性,默认采用的是多副本策略。默认情况下,每一个Block对应了3个副本。副本数量可以通过dfs.replication属性来调节
  2. 在HDFS中,如果不开启机架感知策略,副本是放在相对空闲的节点上;如果开启了机架感知策略,那么对应的会开启副本放置策略
    1. 第一个副本:如果是集群内部上传,谁上传就放在谁身上;如果是集群外部上传,谁空闲就放在谁身上
    2. 第二个副本:放在和第一个副本相同机架的不同节点上
    3. 第三个副本:放在和第二个副本不同机架的节点上
    4. 更多副本:谁空闲放在谁身上

命令和操作

启动命令

命令解释
start-dfs.sh启动HDFS
stop-dfs.sh关闭HDFS
hdfs --daemon start namenode启动NameNode
hdfs --daemon start datanode启动DataNode
hdfs --daemon start secondarynamenode启动SecondaryNameNode
hdfs --daemon stop namenode关闭NameNode
hdfs --daemon stop datanode关闭DataNode
hdfs --daemon stop secondarynamenode关闭SecondaryNameNode

基本命令

命令解释
hadoop fs -put a.txt /
或者
hadoop fs -copyFromLocal a.txt / (过时)
将a.txt上传到HDFS的根目录下
hadoop fs -ls / 查看子文件和子目录
hadoop fs -ls -R /递归查看
hadoop fs -cat /a.txt查看文件内容
hadoop fs -appendToFile b.txt /a.txt将本地的b.txt的内容追加到HDFS的a.txt中
hadoop fs -checksum /a.txt计算校验和(就是获取这个文件的md5计算结果)
hadoop fs -chown tom /a.txt更改文件所属用户
hadoop fs -chmod 777 /a.txt更改文件的权限
hadoop fs -chgrp test /a.txt更改文件的用户组
hadoop fs -copyToLocal /a.txt /opt/test.txt
或者
hadoop fs -get /a.txt /opt/test.txt
下载文件
hadoop fs -cp /a.txt /b.txt复制文件
hadoop fs -mv /a.txt /test.txt剪切或者重命名文件
hadoop fs -df /查看HDFS的容量
hadoop fs -du /b.txt查看文件的大小
hadoop fs -setrep 3 /b.txt(上传文件时指定副本数量,这个参数优先级高于默认的副本数量)指定副本数量

回收站机制

  1. 在HDFS中,回收站机制默认是不开启的,即删除命令会立即生效,无法撤销

  2. 如果需要开启回收站机制,那么需要在core-site.xml文件中做配置

    <!-- 指定文件在回收站中临时的存放时间 -->
    <!-- 单位默认是min -->
    <!-- 如果不指定,默认情况下值为0,即删除要立即生效 -->
    <!-- 如果超过指定时间,没有将文件从回收站中移出来,那么这个文件就会被清理掉 -->
    <property>
            <name>fs.trash.interval</name>
            <value>1440</value>
    </property>
    
  3. 回收站的默认路径是:/user/${user.name}/.Trash/Current/

  4. 如果需要将文件从回收站中挪出来,那么使用hadoop fs -mv命令即可

流程

删除流程

  1. 客户端发起RPC请求到NameNode,请求删除指定文件
  2. NameNode收到请求之后,会进行校验
    1. 校验是否有写入权限 - AccessControlException
    2. 校验是否有指定文件 - FileNotFoundException
  3. 如果校验失败,那么会报错;如果校验成功,那么NameNode修改元数据;修改完元数据之后,NameNode会给客户端返回一个ACK信号表示删除成功!注意,此时文件并没有真正从HDFS上移除,仅仅是修改了元数据!
  4. NameNode会等待DataNode的心跳,收到DataNode的心跳之后,会在心跳响应中要求DataNode删除对应的Block
  5. DataNode收到心跳响应之后,才回去磁盘上删除这个文件对应的Block。注意,此时,文件才真正从HDFS上移除!

写入(上传)流程

  1. 客户端通过DistributedFileSystem向NameNode发送RPC请求,请求上传指定文件

  2. NameNode收到请求之后,会进行校验

    1. 校验是否有写入权限 - AccessControlException
    2. 校验是否有同名文件 - FileAlreadyExistException
  3. 如果校验失败,那么直接报错;如果校验成功,NameNode会给客户端返回一个信号表示允许上传

  4. 客户端在收到信号之后,会再次给NameNode发送请求,请求获取第一个Block的存储地址

  5. NameNode收到请求之后,会查询元数据,根据副本放置策略,将这个Block的存储位置放入队列中返回给客户端。存储位置其实就是DataNode的主机名/IP,默认情况下,返回的是3个地址(副本数量默认为3)

  6. 客户端收到队列之后,会从队列中将地址全部取出,取出之后,会从中选择一个较近(网络拓扑距离的远近)的节点,通过FSDataOutputStream来请求建立pipeline(管道),来写入当前Block的第一个副本;第一个副本写完之后,这个副本所在的节点会通过pipeline将这个Block的第二个副本写入;第二个副本写完之后,这个副本所在的节点会通过管道来写入下一个节点

  7. 当这个Block的最后一个副本写完之后,会给上一个副本所在的节点返回一个ACK信号表示成功;上一个副本所在的节点收到ACK之后,会继续往前返回ACK,直到返回给客户端

  8. 当客户端收到ACK之后,会再次给NameNode发送请求,请求获取下一个Block的存储位置,重复5.6.7三个步骤,直到所有的Block全部写完

  9. 当所有的Block全部写完之后,客户端会给NameNode发送一个结束信号(关流)。NameNode收到信号之后,会关闭文件。文件一旦关闭就不能修改!

    上传流程

读取(下载)流程

  1. 客户端通过DistributedFileSystem向NameNode发送RPC请求,请求读取指定文件

  2. NameNode收到请求之后,会进行校验

    1. 校验是否有读取权限 - AccessControlException
    2. 校验是否有指定文件 - FileNotFoundException
  3. 如果校验失败,则直接报错;如果校验成功, 那么NameNode会给客户端返回一个信号表示允许读取

  4. 客户端收到信号之后,会再次给NameNode发送请求,请求获取第一个Block的存储位置

  5. NameNode收到请求之后,会查询元数据,将这个Block的存储位置以及Block的校验信息放入队列中返回给客户端

  6. 客户端收到队列之后,会将地址从队列中全部取出,从中选择一个较近(网络拓扑距离较近)的节点,通过FSDataInputStream来读取这个Block

  7. 读取完成之后,客户端会对这个Block进行一次checkSum校验。如果校验失败,那么客户端会从剩余的地址中重新选取地址重新读取重新校验;如果校验成功,那么客户端会再次给NameNode发送请求,请求获取下一个Block的位置,重复5.6.7,直到所有的Block全部读取完毕

  8. 当所有的Block都读取完之后,客户端会给NameNode发送一个结束信号

    读取流程

特点

  1. 支持超大文件。HDFS会对文件进行切块处理,所以集群规模越大,能够存储的文件就越大
  2. 能够快速的应对和检测故障。HDFS通过心跳来管理DataNode,通过心跳可以确定DataNode的状态以及Block的状态
  3. 高容错性。HDFS对文件进行备份,从而保证不会因为一个节点宕机就产生数据丢失
  4. 可以在相对廉价的机器上来进行横向扩展
  5. 不支持低延迟数据访问。HDFS的设计初衷就是为了存储超大文件,因此考虑的是数据的吞吐量而不是响应速度
  6. 不建议存储小文件。每一个小文件对应的会产生一条元数据,小文件多了,就意味着元数据会增多,那么会导致内存占用变大,同时会导致查询效率降低
  7. 简化的一致性模型。HDFS支持一次写入多次读取,不支持修改但是支持追加写入
  8. 不支持事务或者支持弱事务。这就意味着在HDFS中,即使数据写错也不能修改
  9. 存储的超大文件允许小部分数据出错。HDFS通常是TB级的日志级别,然后对其数据分析。其中几MB的数据出错并不会影响最终的分析结果。

补充

RPC

  1. RPC(Remote Procedure Call),远程过程调用,指的是允许程序员在一个节点上远程调用另一个节点上的程序或者功能,而不需要显式的实现这个功能
  2. RPC是Nelson在1990年的论文中提出的理论,现在RPC已经成为了分布式中最重要的通讯方式
  3. 存储的超大文件允许小部分数据出错。HDFS通常是TB级的日志级别,然后对其数据分析。其中几MB的数据出错并不会影响最终的分析结果。

补充

RPC

  1. RPC(Remote Procedure Call),远程过程调用,指的是允许程序员在一个节点上远程调用另一个节点上的程序或者功能,而不需要显式的实现这个功能
  2. RPC是Nelson在1990年的论文中提出的理论,现在RPC已经成为了分布式中最重要的通讯方式
  3. stub(存根):保证两端能够调用的函数是相同的,在Java中通常使用接口来实现

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1559508.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

新闻管理系统(源码+文档)

新闻管理系统&#xff08;小程序、ios、安卓都可部署&#xff09; 文件包含内容程序简要说明含有功能项目截图客户端新闻详情新闻首页分类退出登录个人中心拨打客服热线注册界面个人资料新闻评论成功 管理端用户管理分类管理新闻管理 文件包含内容 1、搭建视频 2、流程图 3、开…

特征融合篇 | 利用RT-DETR的AIFI去替换YOLOv8中的SPPF(附2种改进方法)

前言:Hello大家好,我是小哥谈。RT-DETR模型是一种用于目标检测的深度学习模型,它基于transformer架构,特别适用于实时处理序列数据。在RT-DETR模型中,AIFI(基于注意力的内部尺度特征交互)模块是一个关键组件,它通过引入注意力机制来增强模型对局部和全局信息的处理能力…

网络编程的学习1

网络编程 在网络通信协议下&#xff0c;不同计算机上运行的程序&#xff0c;进行数据传输。 三要素 ip&#xff1a;设备在网络中的地址&#xff0c;是唯一的标识。 ipv4:采取32位地址长度&#xff0c;分成4组。 ipv6&#xff1a;采用128位地址长度&#xff0c;分成8组。 …

阿里云优惠券领取方法大公开,省钱不再是难事

阿里云作为国内领先的云计算服务提供商&#xff0c;为广大用户提供了丰富的云产品和解决方案。为了吸引用户上云&#xff0c;阿里云经常推出各种优惠活动&#xff0c;其中最受用户欢迎的就是阿里云优惠券。那么&#xff0c;阿里云优惠券究竟是什么呢&#xff1f;我们又该如何领…

pygame通过重心坐标 用纹理填充三角形

texture_x int(alpha * texture_image.get_width()) texture_y int(beta * texture_image.get_height())为什么没有gama 2024/3/30 15:45:52 在使用重心坐标进行纹理映射时&#xff0c;通常是通过计算 alpha 和 beta 来确定纹理图片上的对应位置&#xff0c;而 gamma 通常是…

【QT学习】2.补充:connect中的lambda表达式

一.简单实例&#xff1a; 1.实例要求 点击按钮&#xff0c;实现 >o<与#-#的转换。 2.步骤 补充&#xff1a;​​​​​​​ 1.如果我想在lambda中修改数据&#xff0c;怎么办&#xff1f; 写上mutable就行。

共享办公室是否可以用来搭建直播间

共享办公室确实可以用来搭建直播间&#xff0c;这在很多创业公司和个人创作者中已经变得相当普遍。以下是一些实际可行的因素&#xff1a; 空间的私密性&#xff1a;选择一个较为封闭的空间&#xff0c;可以减少外界干扰&#xff0c;保证直播过程中的安静和专注。 良好的网络连…

鸿蒙TypeScript入门学习第4天:【TS变量声明】

1、TypeScript 变量声明 变量是一种使用方便的占位符&#xff0c;用于引用计算机内存地址。 我们可以把变量看做存储数据的容器。 TypeScript 变量的命名规则&#xff1a; 变量名称可以包含数字和字母。除了下划线 _ 和美元 $ 符号外&#xff0c;不能包含其他特殊字符&…

前端三剑客 —— CSS (第二节)

目录 内容回顾&#xff1a; CSS选择器*** 属性选择器 伪类选择器 1&#xff09;:link 超链接点击之前 2&#xff09;:visited 超链接点击之后 3&#xff09;:hover 鼠标悬停在某个标签上时 4&#xff09;:active 鼠标点击某个标签时&#xff0c;但没有松开 5&#xff09;:fo…

什么是服务雪崩?什么是服务限流?

服务雪崩效应&#xff1a;因服务提供者的不可用而导致服务调用者的不可用&#xff0c;并且这种情况不断的衍生方法&#xff0c;从而导致整个系统崩溃的过程&#xff0c;就是服务雪崩效应。 解决方式&#xff1a; 熔断机制&#xff1a;当一个服务挂了&#xff0c;被影响的服务要…

基于微信小程序的自习室预约系统的设计与实现

基于微信小程序的自习室预约系统的设计与实现 文章目录 基于微信小程序的自习室预约系统的设计与实现1、前言介绍2、功能设计3、功能实现4、开发技术简介5、系统物理架构6、系统流程图7、库表设计8、关键代码9、源码获取10、 &#x1f389;写在最后 1、前言介绍 伴随着信息技术…

Oracle 低代码平台 Apex 最新版本 23.2 安装过程

趁春节快结束前&#xff0c;安装了一把APEX &#xff0c;到目前为此&#xff0c;APEX最新版本为23.2&#xff0c;23.2和21版本有一些变化&#xff0c;只是用于验证&#xff0c;我 是使用的单独模式&#xff0c;没有安装TOMAT&#xff0c;下面列一下安装过程&#xff1a; 1.环境…

Nest安装及使用~

前提条件 请确保您的操作系统上安装了 Node.js&#xff08;版本 > 16&#xff09; &#x1f4da;要查看指南&#xff0c;请访问 https://docs.nestjs.com/ &#x1f4da;要查看中文 指南&#xff0c; 请访问 https://docs.nestjs.cn/ $ node -v v16.18.1 $ npm -v 7.x.x安…

Beans模块之工厂模块DisposableBean

博主介绍&#xff1a;✌全网粉丝5W&#xff0c;全栈开发工程师&#xff0c;从事多年软件开发&#xff0c;在大厂呆过。持有软件中级、六级等证书。可提供微服务项目搭建与毕业项目实战&#xff0c;博主也曾写过优秀论文&#xff0c;查重率极低&#xff0c;在这方面有丰富的经验…

linux下minio部署和nginx配置

1 下载minio wget https://dl.min.io/server/minio/release/linux-amd64/minio chmod x minio #启动minio&#xff0c;文件数据存放在/data目录 ./minio server /data2 部署minio 下载minio后赋予可执行权限就可以运行了&#xff0c;这里我整理了遇到的坑和解决问题的最终配置…

ngrok 内网穿透使用

title: ngrok 内网穿透使用 search: 2024-02-29 文章目录 背景Windows安装ngrok指令授权ngrok个人用户Authtoken穿透 http 或 https 服务ngrok的代理http指令ngrok获得静态域名指令ngrok的代理ssh指令 背景 这次寒假回家&#xff0c;很无奈&#xff0c;很多东西放在项目组服务…

vuex插件实现数据共享

vuex插件 vuex是管理多个vue通用的数据的插件.(状态管理工具,状态是数据) 我们对于多个vue文件之间的共同数据,是用props传递,或者对于一个vue实例对象,进行绑定,传参,也是多次传参,多个文件之间,比较麻烦. 但是我们vuex会创建一个公共对象,从这个公共对象上赋值,比较简单易…

HarmonyOS 应用开发之使用隐式Want打开网址

以打开浏览器为例&#xff0c;假设设备上安装了一个或多个浏览器应用。为了使浏览器应用能够正常工作&#xff0c;需要在 module.json5配置文件 进行配置&#xff0c;具体配置如下&#xff1a; {"module": {..."abilities": [{..."skills": [{&…

Spring面试题(二)

一、老杜讲解Spring6整理 1. Spring有哪几大模块&#xff1f; 2. IoC控制反转的实现是依赖注入&#xff0c;set依赖注入的原理是什么&#xff1f; 3. 自动装配有哪几种&#xff1f;它的原理是基于构造注入还是基于set注入&#xff1f; 4. Spring容器中的Bean是单例还是多例…

Mybatis-Plus分页查询时碰到`total`有值但`records`为空

个人原因&#xff1a;Mybatis-Plus分页插件设置了maxLimit单页条数 // 分页插件配置 PaginationInnerInterceptor paginationInnerInterceptor new PaginationInnerInterceptor(DbType.MYSQL); paginationInnerInterceptor.setMaxLimit(200L); // 单页分页条数限制(默认无限…