HDFS详细分析

news2024/12/26 3:34:07

目录

一、HDFS架构

(1)Block - 数据块

(2)MetaData - 元数据

(3)NameNode - 主结点

(4)DataNode - 从结点

(5)SecondaryNameNode

二、HDFS的特点

(1)存储大文件(GB、TB)

(2)高容错性

(3)简单的一致性模型

(4)移动计算比移动数据更经济

(5)可移植性

三、HDFS的文件读写流程

(1)HDFS写文件流程

(2)HDFS读文件流程

四、HDFS的健壮性

(1)心跳机制

(2)副本机制

(3)数据完备性校验

(4)安全模式

(5)快照


HDFS源于2003年10月发表的论文The Google File System,该论文描述了Google开发的一个产品框架,该框架称为GFS(Google File System,Google文件系统)。Nutch开发人员借鉴GFS进行开源版本的实现,最终设计一款类似于GFS的分布式文件系统HDFS。

一、HDFS架构

​ HDFS主要采用主从(master-slave)架构,即一个HDFS通常是由一个Master和多个Slave组成,其中Master在HDFS中扮演NameNode角色,主要用于管理HDFS;Slave在HDFS中扮演DataNode角色,主要用于存储文件。除此之外,还有SecoundNameNode用于辅助NameNode。

在这里插入图片描述

(1)Block - 数据块

​Block是HDFS文件按系统中最小的存储单元,通常称为数据块。在HDFS文件系统中存储的文件会被拆分为多个Block,每个Block作为独立的单元进行存储,同一个文件的多个Block通常存放在不同的DataNode中。

(在hadoop1.x中,Block默认大小为64M,但是在hadoop2.x和hadoop3.x中,Block默认大小为128M。)

举例:HDFS存储300M文件,如果把文件拆分为3个Block,那么三个Block的大小分别为128M,128M,44M。

(2)MetaData - 元数据

MetaData(元数据)主要由Fsimage和Edits两个文件组成。

  • Fsimage

    • 定义:文件系统元数据的一个完整的永久性检查点
    • 包含:文件系统中所有目录和文件的信息,如文件名、文件大小、文件路径、文件副本数目、文件与Block的映射关系,以及Block与DataNode的映射关系等信息
    • 作用:提供文件系统在某一时刻的静态视图,可用于快速恢复文件系统状态
      • 例如:在NameNode启动时,可以利用Fsimage快速加载文件系统的基本结构,减少启动时间
    • 生成:Fsimage通常是在特定的时间点由NameNode生成
      • 例如:在系统定期检查点或者NameNode启动时进行合并操作后生成新的Fsimage
    • 更新:在文件系统运行过程中,Fsimage不会频繁更新,以避免对性能产生过大影响
  • Edits

    • 定义:记录了文件系统的所有变更操作,例如文件的创建、删除、修改等。它是一个日志文件,记录了自上一次Fsimage生成以来的所有文件系统操作
    • 作用:保证文件系统的动态变化能够被记录下来,以便在需要时进行恢复或同步。每当有文件系统操作发生时,这些操作都会被立即写入Edits文件中,确保数据的完整性和一致性
    • 生成:随着文件系统的操作不断进行,Edits文件会持续增长
    • 更新:为了避免Edits文件过大影响系统性能,NameNode会定期将Edits文件和Fsimage进行合并,生成新的Fsimage,并清空Edits文件,重新记录新的变更操作
  • Hadoop 中 fsimage 和 edits 文件的具体实例

一、Fsimage

假设一个简单的 Hadoop 文件系统中有两个文件:file1.txt 和 file2.txt

Fsimage 中可能包含如下信息:

  • 文件 1:
    • 文件名:file1.txt
    • 文件大小:1024 字节
    • 副本数量:3
    • 存储的块信息:块 1 的 ID、块 2 的 ID 等。
  • 文件 2:
    • 文件名:file2.txt
    • 文件大小:2048 字节
    • 副本数量:2
    • 存储的块信息:块 3 的 ID、块 4 的 ID 等。

二、Edits

如果在系统运行过程中,有一个新文件file3.txt被创建,并且file1.txt被修改。

edits 文件中可能记录如下操作:

  • 创建文件file3.txt,包括文件名、初始大小、副本数量等信息。
  • 修改file1.txt的操作,例如文件大小的变化或者块的重新分配等。

例如:

  • [TIMESTAMP1] CREATE file3.txt, size=512, replicas=2
  • [TIMESTAMP2] MODIFY file1.txt, newSize=1500
  • Hadoop 中 fsimage 和 edits 文件的存储格式

一、Fsimage 文件存储格式

  1. 整体结构
    • Fsimage 是一个二进制文件,它包含了文件系统的完整快照。
    • 主要分为文件目录的元数据信息两部分。
  2. 元数据内容
    • 对于每个文件,存储的信息包括文件名、文件大小、副本数量、块列表等。例如,文件名以特定编码方式存储,文件大小以字节为单位记录,副本数量通常是一个整数表示。
    • 对于目录,存储目录名称、子目录和文件列表等信息。目录结构以层次化的方式存储,便于快速检索和遍历文件系统。
  3. 序列化格式
    • Hadoop 使用一种高效的序列化格式来存储 Fsimage,以便在读取和写入时能够快速处理大量的元数据。这种格式通常是紧凑的,以减少存储空间的占用,并提高读取和写入的性能。

二、Edits 文件存储格式

  1. 日志结构
    • Edits 文件是一个日志文件,记录了文件系统的所有变更操作。
    • 每个操作以特定的格式记录在文件中,按照时间顺序排列
  2. 操作格式
    • 常见的操作包括文件创建、删除、修改,以及块的分配和删除等。每个操作都包含操作类型、相关文件或块的信息以及操作的时间戳等。
    • 例如,文件创建操作可能包括文件名、文件大小、副本数量等信息;块的分配操作可能包括块 ID、存储位置等信息。
  3. 追加写入
    • Edits 文件采用追加写入的方式,新的操作不断添加到文件的末尾。这样可以保证操作的顺序性,便于在恢复和合并时按照正确的顺序应用操作。

(3)NameNode - 主结点

​NameNode是HDFS集群的名称结点,通常称为主结点。主要负责管理文件系统的命名空间以及控制客户端对文件的访问。如果NameNode由于故障原因而无法访问,那么用户就无法访问HDFS。(后面学zookeeper时,可以解决单点故障问题,以实现高可用||当然NameNode联邦也可以实现高可用)

  • NameNode主要功能
    • 管理文件系统的命名空间(NameSpace)
      • 维护文件和目录的层次结构,记录文件名、文件按大小、文件副本数量等元数据信息
      • 当客户端请求创建、删除或重命名文件/目录时,NameNode负责更新命名空间并记录相应的操作
    • 管理数据块的存储
      • 跟踪文件的数据块在DataNode集群中的存储位置。每个文件被分割成多个数据块,NameNode知道每个数据块存储在那些DataNode上
      • 负责数据块的复制和重新平衡,以确保数据的高可用性和可靠性
    • 处理客户端请求
      • 接收客户端的文件读写请求,并将请求转发到合适的DataNode上
      • 管理文件系统的权限控制,确保只有授权的用户才能访问文件和目录
    • 维护和管理DataNode,并协调DataNode为客户端发起的读写请求提供服务
  • NameNode工作原理
    • 启动过程
      • 在启动时,NameNode从磁盘上读取Fsimage文件,该文件包含文件系统的命名空间元数据的完整快照。
      • NameNode读取Edits文件,该文件记录了自上一次Fsimage生成以来的所有文件系统操作。通过Edits文件中的操作,NameNode将文件系统的状态更新至最新
    • 运行过程中的元数据管理
      • 当有文件系统操作发生时,NameNode会将操作记录到Edits文件中,同时更新内存中的元数据
      • 为了防止Edits过大,NameNode会定期触发检查点操作,将Edits和Fsimage文件合并,生成新的Fsimage文件,并清空Edits文件内容。
    • 数据块管理
      • NameNode会根据数据块的副本策略和集群的状态,决定将数据块复制到哪些DataNode上
      • 定期与DataNode进行通信,接收DataNode的心跳信息和数据块报告,以了解数据块的存储情况和DataNode的健康状态

(4)DataNode - 从结点

​ DataNode是HDFS集群中的数据结点,通常称为从节点。主要负责存储实际的数据块,并为客户端提供数据读写服务。

  • DataNode主要功能

    • 存储数据块(Block)
      • DataNode将文件系统中的数据分割成固定大小的数据块,并将这些数据块存储在本地磁盘上
      • 每个数据块会被复制到多个DataNode上,以提高数据的可靠性和可用性
    • 提供数据读写服务
      • 当客户端请求读取文件时,NameNode会根据文件的元数据信息确定数据块的存储位置,并将这些位置信息返回给客户端。客户端将直接与存储相应数据块的DataNode进行通信,读取数据块
      • 当客户端请求写入文件时,客户端首先将数据写入本地缓存,然后将数据分成数据块,并将这些数据块发送到多个DataNode上进行存储(存储之前,客户端也是需要与NameNode通信的)
    • 与NameNode通信
      • DataNode会定期向NameNode发送心跳信息,以表名自己的存活状态。心跳信息还包含DataNode上存储的数据块列表等信息
      • 当NameNode需要进行数据块复制或重新平衡时,会向DataNode发送指令,DataNode会按照指令执行相应的操作
  • DataNode工作原理

    • 启动过程
      • DataNode在启动时,会读取本地配置文件,确定自己在集群中的角色和配置信息
      • DataNode会扫描本地磁盘,确定自己存储的数据块列表,并将这些信息报告给NameNode
    • 运行过程中的数据管理
      • DataNode会持续监控本地磁盘上的数据块状态,确保数据块的完整性和可用性
      • 如果发现数据块损坏或丢失,DataNode会向NameNode报告,并尝试从其他DataNode上复制数据块进行恢复
    • 数据读写过程
      • 当客户端请求读取数据块时,DataNode会从本地磁盘读取数据块,并将数据返回给客户端
      • 当客户端请求写入数据块时,DataNode会将接收到的数据块写入本地磁盘,并向客户端返回确认信息。同时,DataNode会将数据块写入操作报告给NameNode

(5)SecondaryNameNode

​ SecondaryNameNode是HDFS中的一个辅助组件,主要负责协助NameNode进行元数据的管理和维护。切记!SecondaryNameNode是NameNode的冷备,不是热备,它不能代替NameNode。

  • SecondaryNameNode主要功能

    • 合并Fsimage和Edits文件
      • SecondaryNameNode定期从NameNode中下载Fsimage和Edits文件
      • 将Edits文件中的操作应用到Fsimage上,生成一个新的Fsimage文件
      • 将新的Fsimage文件上传回NameNode,并清空NameNode上的edits文件。这个过程称为检查点(checkpoint)操作,可以防止edits文件过大,提高NameNode的启动速度
    • 辅助NameNode进行元数据备份
      • 在某些情况下,SecondaryNameNode可以为NameNode的“备份“,提供一定程度的元数据冗余
      • SecondaryNameNode并不是真正的高可用解决方案,因为它不能在NameNode故障时立即接管其工作
  • SecondaryNameNode工作原理

    • 启动和触发检查点
      • SecondaryNameNode通常在Hadoop集群启动时自动启动
      • 定期检查NameNode上的Edits文件大小或时间间隔,当满足一定条件时,触发检查点操作
    • 下载和合并文件
      • 在触发检查点后,SecondaryNameNode从NameNode下载Fsimage和Edits文件
      • 将Edits文件中的操作应用到Fsimage上,这个操作可以使用内存中的数据结构进行高效的合并操作
      • 生成新的Fsimage文件后,SecondaryNameNode将其上传回NameNode,并通知NameNode可以使用新的Fsimage文件并清空Edits文件
    • 与NameNode的交互
      • SecondaryNameNode与NameNode之间通过网络进行通信
      • NameNode会将Fsimage和Edits文件的位置信息告知SecondaryNameNode,以便它进行下载和合并操作
      • SecondaryNameNode在完成检查点操作后,会向NameNode发送通知,告知其新的Fsimage文件以及准备完成

二、HDFS的特点

(1)存储大文件(GB、TB)

​ HDFS支持GB级别甚至TB级别的文件存储,每个文件都会被切分为多个block存储在集群的不同DataNode上,使得对大型文件进行读取操作时可以采用并行的方式提高吞吐量

(2)高容错性

​ HDFS的副本机制会为DataNode中的每个Block创建多个副本(默认3个),这样即使某个DataNode宕机,也不会造成数据丢失,这是因为HDFS可以从其它DataNode中读取已保存的相同的Block副本数据

(3)简单的一致性模型

​ HDFS采用的是一次写入、多次读取的文件访问模型。在HDFS中,一个文件经过创建、写入和关闭后,只能追加,不能修改,并且不支持并发多用户的写操作,这样可以保证有效数据的一致性。

(4)移动计算比移动数据更经济

​ 计算向数据靠拢,可以最大限度地减少网络阻塞,同时还可以增加系统的整体吞吐量。HDFS为应用提供了接口,以便自己更靠近数据所在位置

(5)可移植性

​ HDFS可以轻松地从一个平台移植到另一个平台,这有助于广泛应用HDFS作为大量应用程序的首选平台。

三、HDFS的文件读写流程

(1)HDFS写文件流程

在这里插入图片描述

下面以300MB大小的Test.txt文件为例,针对上图所示的HDFS写文件流程进行介绍:

① 客户端(Client)上传 Test.txt 文件到指定目录的请求,与NameNode建立通信

② NameNode检查客户端是否有上传文件的权限,以及文件是否存在(如果不存在则可进行下一步,如果存在则拒绝客户端的上传请求,并返回一个错误信息,告知客户端该文件已存在,不能重复上传)。若通过检查,则通知客户端上传文件,并向其发送分块策略

③ 客户端根据分块策略(以默认128MB为例)对文件 Test.txt 进行切分,形成3个Block,分别是blk1、blk2和blk3;

④ 客户端向NameNode请求上传第一个Block,即blk1;

⑤ NameNode根据副本机制机架感知向客户端返回可上传blk1的DataNode列表,这里指定是Hadoop1、Hadoop2、Hadoop3;

⑥ 客户端从NameNode接收到blk1上传的DataNode列表后,首先根据就近原则从DataNode列表中选择一台DataNode(如Hadoop1)并与之建立管道(Pipeline),用于传输数据,然后Hadoop1会与第二台DataNode(如Hadoop2)建立管道,最后Hadoop2会与第三台DataNode(Hadoop3)建立管道;

⑦ 首先,Hadoop3向Hadoop2汇报管道建立成功,然后,Hadoop2向Hadoop1汇报管道建立成功,最后,Hadoop1向客户端汇报管道建立成功,此时客户端与所有DataNode列表中的所有DataNode都建立了管道;

⑧ 客户端开始传输blk1,传输过程以流式写入的方式实现,具体过程如下

  1. 将blk1写入内存进行缓存
  2. 将blk1按照packet(默认64KB)为单位进行划分;
  3. 将第一个packet(数据包)通过管道发送给Hadoop1;
  4. Hadoop1接收到第一个packet后,客户端会将第二个packet发送给Hadoop1,同时Hadoop1通过Pipeline将第一个packet发送给Hadoop2(传递并保存packet);
  5. Hadoop2接收到第一个packet之后,Hadoop1会将第二个packet发送给Hadoop2,同时Hadoop2通过Pipeline将第一个packet发送给Hadoop3(传递并保存packet);
  6. 以此类推,直至blk1上传完成

⑨ 首先,Hadoop3向Hadoop2发送blk1写入完成的信息,然后,Hadoop2向Hadoop1发送blk1写入完成的信息,最后,Hadoop1向客户端发送blk1写入完成的信息;

⑩ 客户端成功上传blk1后,重复第④~⑨的流程,依次上传blk2和blk3,最终完成Test.txt文件的上传;

(2)HDFS读文件流程

在这里插入图片描述

下面以300MB大小的Test.txt文件为例,针对上图所示的HDFS读文件流程进行介绍

① 客户端发起读取Test.txt文件的请求,与NameNode建立通信

② NameNode检查客户端是否有读取文件的权限,以及文件是否存在。若通过检查,则通知客户端读取文件,并向其Test.txt文件的Block列表(结构化数据),该列表中记录了每个Block编号及其副本所在DataNode的地址,例如Hadoop1、Hadoop2、Hadoop3的主机地址;

③ 客户端按照就近负载较轻从NameNode返回的Block列表选择Datanode进行读取Block。首先客户端从Block列表中选择一个距离自己最近或负载较轻的DataNode(如Hadoop1)读取Block,如果该DataNode可以读取文件的所有Block,则结束读取;如果该DataNode没有读取文件的所有Block,则客户端从Block列表中继续选择距离自身最近或负载较轻的DataNode读取剩余的Block,直至获取文件按的所有Block才结束读取;读取block的过程中,会进行数据校验,确保数据的完整性,如果发现数据损坏,可以从其它副本所在的数据节点继续读取该block;

④ 客户端将读取的所有Block按照顺序进行合并,最终形成Test.txt文件。需要注意的是,如果文件过大,导致NameNode无法一次性读取所有Block,则会分批次将Block列表返回客户端。

四、HDFS的健壮性

​ HDFS的目标是出现故障的情况下可靠地存储数据,其运用了心跳机制副本机制数据完整性校验安全模式快照5种策略保证存储数据的可靠性。

(1)心跳机制

​ HDFS的心跳机制主要用于NameNode和DataNode之间保持通信以及监控集群的健康状态。master启动的时候,会运行 ipc server(Inter-Process Communication 进程间的通信)

在这里插入图片描述

  • 心跳机制的作用
    • 保持活性:DataNode定期向NameNode发送心跳信号,以表明自己处于活跃状态且正在运行。如果NameNode在一段时间后(10min)没有收到某个DataNode的心跳,就会认为该DataNode出现故障
    • 汇报状态:DataNode通过心跳(10h)将自己的存储状态信息(如已使用空间、剩余空间、数据块副本情况等)汇报给NameNode。NameNode依据这些信息进行数据块的分配、重新复制等管理操作
  • 心跳机制的工作流程
    • 时间间隔:DataNode按照一定的时间间隔(3s)向NameNode发送心跳信号(heartbeat)。这个时间间隔可以通过HDFS的配置参数进行调整
    • 心跳处理:NameNode接收到DataNode的心跳后,会更新该DataNode的状态信息,并根据需要发送指令给DataNode。例如:如果发现某个数据块的副本数量不足,NameNode可能会指示一些DataNode去复制该数据块。
    • 故障检测:如果NameNode长时间(10min)未收到某个DataNode的心跳,就会将其标记为故障状态,并启动相应的恢复机制。这可能包括重新分配该DataNode上存储的数据块副本到其它正常的DataNode上,以保证数据的可用性和冗余性。

(2)副本机制

​ HDFS副本机制是其保证数据可靠性和高可用性的重要手段。

  • 副本数量设定
    • HDFS允许管理员配置文件的副本数量,默认为3个副本(包括自身)
  • 副本放置策略
    • 第一个副本:通常放置在上传文件的客户端所在的DataNode上。如果客户端不在集群内,则随机挑选一个DataNode,减少数据上传网络开销;
    • 第二个副本:放置在与第一个副本不同的机架上的一个随机DataNode上。这样可以保证一个机架出现故障时,数据任然可用;
    • 第三个副本:放置在与第二个副本相同机架的不同DataNode上。这样可以进一步提高数据的可用性,并且在读取数据时可以减少跨机架的网络流量
  • 副本管理
    • 数据写入时:客户端将数据分成多个数据块,并将每个数据块及其副本写入不同的DataNode。在写入过程中,DataNode之间会相互通信以确保副本的一致性。只有当所有副本都成功写入后,客户端才会认为写入操作成功
    • 定期检查:NameNode会定期检查每个数据块的副本数量位置。如果发现副本数量不足或某些DataNode出现故障,NameNode会启动副本复制过程,将数据块复制到其它正常的DataNode上,以保证副本数量符合设定要求
    • 数据读取时:客户端从多个副本中选择一个进行读取。通常会选择距离最近或负载较轻的DataNode,以提高读取效率。如果读取过程中出现错误,客户端可以尝试从其他副本读取
  • 作用和优势
    • 提高数据可靠性:即使某些DataNode出现故障,仍然可以从其他副本中读取数据,保证数据不会丢失
    • 增加数据可用性多个副本分布在不同DataNode上,可以提高数据的访问速度和并发访问能力
    • 负载均衡:副本的分布可以使数据的读取写入负载更加均衡地分配在整个集群中,提高系统的性能和稳定性

(3)数据完备性校验

​ HDFS中,数据完备性校验是确保数据在存储和运输过程中不被损坏或篡改的重要机制

  • 校验方式
    • 校验和(Checksum):HDFS为每个数据块计算一个校验和。在数据写入时,客户端计算数据块的校验和并将其与数据块一起存储在DataNode上。在数据读取时,客户端会再次计算读取到的数据块的校验和,并与存储的校验和进行比较。如果两者不匹配,则说明数据块在存储或传输过程中出现了损坏
    • 数据块副本比较:当客户端从多个DataNode读取数据块副本时,可以比较不同副本的校验和。如果副本之间的校验和不一致,说明可能存在数据损坏或副本不一致的情况。在这种情况下,客户端可以尝试从其他副本读取数据,或者通知NameNode启动副本复制过程以修复损坏的副本
  • 校验时机
    • 数据写入:客户端在将数据块写入DataNode之前,会计算数据块的校验和。DataNode在接收到数据块后,也会再次计算与客户端提供的校验和进行比较,以确保数据在传输过程中没有被损坏
    • 数据读取客户端在读取数据块时,会计算读取到的数据块的校验和,并与存储的校验和进行比较。如果校验和不匹配,客户端会尝试从其他副本读取数据,或者通知NameNode启动副本复制过程
    • 定期检查NameNode可以定期启动数据块的完整性检查过程。它会指示DataNode读取数据的数据块并计算校验和,然后将计算得到的校验和与存储的校验和进行比较。如果发现数据块损坏,NameNode会启动副本复制过程以修复损坏的副本
  • 作用和优势
    • 保证数据可靠性:通过校验副本比较等机制,可以即使发现数据损坏,并采取相应的措施进行修复,保证数据的可靠性
    • 提高数据可用性:在数据损坏的情况下,客户端可以从其他副本读取数据,或者启动副本复制过程,提高数据的可用性
    • 增强系统稳定性:数据完整性检验可以减少因数据损坏而导致的系统故障和错误,增强HDFS的稳定性和可靠性。

(4)安全模式

​ HDFS的安全模式是一种特殊的运行状态,主要用于在系统启动或出现故障后确保数据的一致性和完整性

  • 进入安全模式的情况

    • 集群启动时当HDFS集群启动时,NameNode会首先进入安全模式。在这个阶段,NameNode回家再文件系统的元数据,并从各个DataNode接收心跳和块报告信息
    • 故障恢复时:如果集群出现故障,例如部分DataNode宕机或网络分区,NameNode也可以进入安全模式以进行数据恢复一致性检验
  • 安全模式的特点

    • 只读状态:在安全模式下,HDFS处于只读状态,客户端只能读取文件系统中的数据,但不能进行写操作,包括创建、删除或修改文件等
    • 数据块检查:NameNode会利用从DataNode接收到的块报告信息,检查数据块的副本数量是否满足设定的副本系数要求。如果发现数据块副本数量不足,NameNode会在安全模式下启动副本复制过程,将数据块复制到其他DataNode上,以保证数据的冗余性
    • 等待状态:NameNode会等待足够数量的DataNode向其发送心跳和块报告信息,以确保整个文件系统的状态是稳定的。这个等待的时间可以通过配置参数进行调整
  • 退出安全模式的条件

    • 副本数量达标:当NameNode确定数据块的副本数量满足设定的副本系数要求,并且有足够比例的DataNode向其报告了块信息时,它会认为文件系统处于稳定状态,可以退出安全模式
    • 手动退出:管理员也可以通过命令强制NameNode退出安全模式,如下案例

    补充:Safe mode is ON

    出现原因之一:运行hadoop的时候,出现假死的状况,我直接重启了服务器,造成块数据丢失,于是安全模式启动了,检查安全模式是否启动

    hdfs dfsadmin -safemode get
    

    解决方法:

    1. 查看缺失文件
    hdfs fsck /
    
    1. 删除缺失文件
    hdfs fsck -delete
    

    再次启动:

    1. metastore(9083 端口)
    nohup hive --service metastore &
    
    1. hiveserver2(10000 端口)
    nohup hive --service hiveserver2 &
    
  • 安全模式的作用和意义

    • 数据一致性保障:安全模式确保了在系统启动故障恢复后,文件系统的元数据和数据块的状态是一致的。通过检查数据块副本数量等待DataNode的报告,NameNode可以确定文件系统是否处于稳定状态,从而避免在不稳定的情况下进行写操作,防止数据丢失或不一致性
    • 故障恢复辅助:在安全模式下,NameNode可以启动副本复制过程,以恢复因故障而丢失或损坏的数据块副本。有助于提高系统的可靠性和容错性
    • 系统稳定性维护:安全模式限制了客户端的写操作,避免了在系统不稳定的情况下进行可能导致数据不一致的操作。有助于维护整个HDFS集群的稳定性和可靠性

(5)快照

​ HDFS中快照(Snapshot)是一种用于保存文件系统在特定时间点的状态的功能

  • 快照的作用

    • 数据备份和恢复:快照提供了一种快速、方便的数据备份方式。可以在某个时间点创建快照,以便在数据损坏、误操作或其他问题发生时进行恢复
    • 实验和测试:可以使用快照创建文件系统的副本,进行实验、测试新的应用程序或进行数据挖掘等操作,而不会影响原始数据
    • 数据保护:防止意外删除或修改重要数据。即使在误操作后,也可以通过快照恢复到之前的状态。
  • 创建快照

    • 管理员可以使用HDFS命令行工具或API来创建快照
    hdfs dfsadmin -createSnapshot 目录
    
    • 创建快照时,不会立即复制所有数据。而是,HDFS会记录文件系统的元数据状态,以便在需要时可以恢复到该状态。
    • 可以为单个目录整个文件系统创建快照
  • 读取快照

    • 客户端通过指定快照的名称来访问特定时间点的文件系统状态。
    # 列出特定快照中的文件和目录
    hdfs dfs -lsr /path/.snapshot/
    
    • 读取快照时,实际上是在查看创建快照时的文件系统状态,而不是当前的实时状态。这对于检查历史数据或恢复特定版本的文件非常有用
  • 删除快照

    • 可以使用HDFS命令或API删除不重要的快照
    # 删除指定快照
    hdfs dfsadmin -deleteSnpashot 快照地址
    
    • 删除快照只会删除记录的元数据状态,不会删除实际的数据。只有当删除所有引用特定数据块的快照后,这些数据块才可能被垃圾回收
  • 限制和注意事项

    • 快照会占用一定的存储空间,因为它们记录了文件系统的元数据状态。在创建大量快照时,需要考虑成本

    • 快照不是实时备份,而是特定时间点的状态记录。因此,在创建快照后发生的数据更改将不会反映在快照中

    • 快照的创建和删除可能会对文件系统的性能产生一定的影响,特别是在处理大量数据时。因此,使用快照时,需要权衡数据保护和性能之间的关系

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2217211.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【19楼-注册安全分析报告】

前言 由于网站注册入口容易被黑客攻击,存在如下安全问题: 暴力破解密码,造成用户信息泄露短信盗刷的安全问题,影响业务及导致用户投诉带来经济损失,尤其是后付费客户,风险巨大,造成亏损无底洞…

2024年下软考——信息系统运行管理员考前30天冲刺学习指南!!!

2024下半年软考已经迫在眉睫了,还没有开始备考的小伙伴赶紧行动起来。为了帮助大家更好的冲刺学习,特此提供一份信息系统运行管理员考前30天学习指南。本指南包括考情分析、学习规划、冲刺攻略三个部分,可以参考此指南进行最后的复习要领&…

javaWeb项目-Springboot+vue-校园论坛系统功能介绍

本项目源码(点击下方链接下载):java-springbootvue-xx学校校园论坛信息系统实现源码(项目源码-说明文档)资源-CSDN文库 项目关键技术 开发工具:IDEA 、Eclipse 编程语言: Java 数据库: MySQL5.7 框架:ssm、Springboot…

鼠标移入盒子,盒子跟随鼠标移动

demo效果: 鼠标移入盒子,按下鼠标,开启移动跟随移动模式,再次按下关闭移动模式 涉及主要属性 在元素上单击鼠标按钮时输出鼠标指针的坐标: var x event.pageX; // 获取水平坐标 var y event.pageY; // 获取垂直坐标元素offsetL…

【含开题报告+文档+PPT+源码】基于SSM的景行天下旅游网站的设计与实现

开题报告 随着互联网的快速发展,旅游业也逐渐进入了数字化时代。作为一个旅游目的地,云浮市意识到了互联网在促进旅游业发展方面的巨大潜力。为了更好地推广云浮的旅游资源,提高旅游服务质量,云浮市决定开发一个专门的旅游网站。…

【python】用tk做一个简单的商品搜索更新展示的桌面应用

import tkinter as tk from tkinter import ttk import pandas as pddata_list [{id:1,name: 苹果, price: 6.5,tag:水果},{id:2,name: 香蕉, price: 2.5,tag:水果},{id:3,name: 葡萄, price: 8.5,tag:水果},{id:4,name: 橘子, price: 4.5,tag:水果}, ]df pd.DataFrame(data_…

SwiftUI 如何取得 @Environment 中 @Observable 对象的绑定?

概述 从 SwiftUI 5.0(iOS 17)开始,苹果推出了全新的 Observation 框架。它作为下一代内容改变响应者全面参与到数据流和事件流的系统中。 有了 Observation 框架的加持,原本需要多种状态类型的 SwiftUI 视图现在只需要 3 种即可大…

海康NVR管理平台EasyNVR多品牌NVR管理工具实现智能化视频管理介入现代化工厂

一、方案背景 在当今这个日新月异的时代,制造业作为国民经济的支柱之一,正经历着前所未有的变革。随着信息技术的飞速发展,工厂的现代化管理手段准确性也越来越高,越来越丰富,各种先进的技术手段比如视频监控系统&…

R语言医学数据分析实践-R编程环境的搭建

【图书推荐】《R语言医学数据分析实践》-CSDN博客 《R语言医学数据分析实践 李丹 宋立桓 蔡伟祺 清华大学出版社9787302673484》【摘要 书评 试读】- 京东图书 (jd.com) R语言编程_夏天又到了的博客-CSDN博客 R语言对编程环境的要求不高,可以在多种操作系统平台上…

对于SOCKS协议的一些认知误区有哪些?

代理协议在设备与代理服务器之间的数据交换中起到了关键作用。在这方面,SOCKS代理协议是常见的选择之一,被广泛应用于下载、传输和上传网络数据的场景。然而,关于SOCKS代理协议存在一些常见的误解,让我们来逐一了解。 一、使用SO…

nRF54L15—蓝牙低功耗双核系统级芯片(SoC)

nRF54L15 是 nRF54L 系列的首款系统级芯片 (SoC)。它是一款超低功耗蓝牙 5.4 SoC,具有同类最佳的新型多协议无线电和先进的安全功能。nRF54L 系列以更紧凑的封装将广受欢迎的 nRF52 系列提升到新的水平,具有出色的处理能力和效率、扩展的内存和新型外设。…

开发 - develop-codescan-zwcz53

开发 - develop-codescan-zwcz53 1. 开发 - CodeScan2. 前言3. CodeScan3.1. 工具概述3.2. 编译3.3. 功能3.4. 使用3.5. 高级用法3.5.1. 高扩展性3.5.2. 扫描位置3.5.3. 过滤字符串(只写了JSP PHP)3.5.4. 静态分析依赖情况 3.6. TODO3.7. 支持项目3.8. 详细使用文章(内附案例)…

运维怎么转行网络安全?

经常有人问我:干网工、干运维多年遇瓶颈,想学点新技术给自己涨涨“身价”,应该怎么选择? 聪明人早已经用脚投票:近年来,越来越多运维的朋友寻找新的职业发展机会,将目光聚焦到了网络安全产业。…

大数据-174 Elasticsearch Query DSL - 全文检索 full-text query 匹配、短语、多字段 详细操作

点一下关注吧!!!非常感谢!!持续更新!!! 目前已经更新到了: Hadoop(已更完)HDFS(已更完)MapReduce(已更完&am…

Python 3.13 中的 7 个新类型特性

刚刚发布的 Python 3.13 继续挑战了效率和优雅的极限。 除了在 Python 社区讨论已久的令人兴奋的自由线程模式 和 Just-In-Time 编译器之外,吸引我的还有类型系统的新改进。 在早期版本引入的强大类型系统基础上,Python 3.13 将引入七个新的类型特性&a…

数学考研高分突破:解题思维与速度的双重修炼

随着考研季的临近,众多考生为了在数学这一科目中取得高分,纷纷投入到紧张的复习中,如何在有限的时间内,既提高解题思维,又提升解题速度,成为了许多考生心中的难题,本文将围绕这一主题&#xff0…

如何批量下载采集淘宝图片?3个方法可以帮助你

如何批量下载采集淘宝图片?在现代电子商务的背景下,淘宝作为中国最大的在线购物平台之一,承载了数以亿计的商品和信息。对于从事电商运营、市场推广或网络营销的人员而言,采集淘宝图片已经成为日常工作中的重要任务。这不仅是为了…

网页前端开发之HTML入门

HTML入门 HTML全称HyperText Markup Language,中文译为:超文本标记语言。 它有一个同胞兄弟叫:XML,全称Extensible Markup Language,中文译为:可扩展标记语言。 简单来讲,它们都是标记语言。 …

Excel重新踩坑2:Excel数据类型;自定义格式(设置显示格式);分列操作;其他常用操作;一些重要操作

0、Excel数据类型:文本、数字、逻辑值、错误值 文本数据类型:输入什么显示什么;常见错误值 VALUE:文本与数字运算; DIV/0:分母为0; NAME:公式名称错误; N/A:…

最新Mac优化清理工具CleanMyMac X 4.15.6 for mac中文版图文教程

CleanMyMac X mac版下载是一款功能更加强大的系统优化清理工具,软件只需两个简单步骤就可以把系统里那些乱七八糟的无用文件统统清理掉,节省宝贵的磁盘空间。CleanMyMac X for mac相比于 CleanMyMac3来说,功能增加了不少,比如新增…