深入探索【Hadoop】生态系统:Hive、Pig、HBase及更多关键组件(上)

news2024/9/23 9:22:37

🐇明明跟你说过:个人主页

🏅个人专栏:《大数据前沿:技术与应用并进》🏅

🔖行路有良友,便是天堂🔖

目录

一、引言

1、Hadoop简介

2、Hadoop生态系统的构成概览 

3、Hadoop在大数据处理中的应用价值

二、Hive:SQL on Hadoop

1、Hive简介

2、Hive架构

1. Metastore

2. Driver

3. Compiler

4. Executor

3、HiveQL语言基础

4、Hive应用场景

三、Pig:数据流的脚本语言

1、Pig概述:设计哲学与优势

2、Pig 的核心组件

3、Pig 的执行流程

4、Pig与Hive的对比


一、引言

1、Hadoop简介

Hadoop 是一个由 Apache 软件基金会开发的开源软件框架,用于分布式存储和处理大规模数据集。它的设计目的是在计算机集群上运行,并能够有效地处理数以千计的节点上的海量数据。Hadoop 主要用于处理大数据,并且能够处理结构化、半结构化和非结构化的数据。

Hadoop 的核心组件包括:

  1. Hadoop Distributed File System (HDFS): 这是 Hadoop 的分布式文件系统,负责将数据分块并分布在集群中的多个节点上,以实现高容错性和高吞吐量的数据存储和访问。
  2. MapReduce: 这是一种编程模型和处理引擎,允许开发人员编写程序来并行处理大型数据集。MapReduce 将任务分解为两个阶段:“Map” 阶段负责将数据进行分块处理,“Reduce” 阶段负责将处理结果进行汇总。
  3. YARN (Yet Another Resource Negotiator): YARN 是 Hadoop 的资源管理器,负责管理集群资源,并将这些资源分配给运行在集群上的各种应用程序。
  4. Hadoop Common: 这是 Hadoop 框架的基础部分,提供了支持其他 Hadoop 模块的必要库和工具。

2、Hadoop生态系统的构成概览 

  1. HBase: 分布式的、面向列的 NoSQL 数据库,运行在 HDFS 之上,适用于处理大规模结构化和半结构化数据。
  2. Hive: 数据仓库基础设施,用于将结构化数据文件映射为数据库表,并使用类似 SQL 的查询语言(HiveQL)进行查询和分析。
  3. Pig: 数据流语言和执行环境,适合处理和分析大型数据集,Pig Latin 是其特有的编程语言。
  4. Spark: 分布式数据处理引擎,支持内存中计算,适用于批处理、流处理和机器学习等多种场景。
  5. Flink: 流处理框架,提供高吞吐量和低延迟的数据流处理能力。
  6. Storm: 实时数据处理框架,适合处理不断产生的大数据流。
  7. Zookeeper: 分布式协调服务,提供高可靠性的分布式应用协调服务,如同步、配置管理和命名服务。
  8. Kafka: 分布式消息系统,适合处理实时数据流,常用于构建实时流处理管道。

3、Hadoop在大数据处理中的应用价值

1. 处理大规模数据的能力

  • Hadoop 的分布式架构使其能够处理和存储大规模数据集,支持数百 TB 甚至 PB 级的数据。其核心组件 HDFS 和 MapReduce 可以在大规模集群上高效分布式存储和处理数据,突破了传统单机系统在数据存储和处理能力上的瓶颈。

2. 高容错性和可扩展性

  • Hadoop 的 HDFS 通过数据块的冗余复制机制保证了数据的高可用性和容错性。当集群中的某个节点发生故障时,Hadoop 可以自动将任务转移到其他节点继续执行,确保数据不丢失。此外,Hadoop 的架构使得集群能够根据需求灵活扩展,通过添加更多的节点来提升计算和存储能力。

3. 成本效益

  • Hadoop 可以运行在廉价的商用硬件上,通过横向扩展来处理大数据集。与传统的大型机或高端服务器系统相比,Hadoop 显著降低了大数据处理的基础设施成本。此外,它是一个开源框架,企业可以自由使用和定制,大大减少了软件许可费用。

4. 多种数据格式与源的支持

  • Hadoop 能够处理多种格式的数据,包括结构化、半结构化和非结构化数据,如文本、图像、视频、JSON、XML 等。这使得 Hadoop 能够从各种数据源中提取和处理数据,如日志文件、社交媒体数据、传感器数据和数据库记录,满足多样化的数据处理需求。

5. 生态系统的强大支持

  • Hadoop 生态系统中包含了丰富的工具和组件,支持数据存储、处理、分析、集成、安全等各个方面的需求。例如,使用 Hive 可以方便地对大数据进行 SQL 查询,使用 Spark 可以实现快速的数据处理和流处理,使用 HBase 可以处理海量的结构化数据,使用 Kafka 可以实现实时数据流的处理。这些工具和 Hadoop 的核心组件紧密集成,形成了一个强大的大数据处理平台。

6. 批处理和实时处理能力

  • 通过 Hadoop 的 MapReduce 框架,用户可以实现复杂的数据批处理任务,适合处理大规模的历史数据。同时,通过 Spark、Storm、Flink 等工具,Hadoop 生态系统也支持实时数据流处理,能够应对实时分析、监控、推荐系统等场景。

二、Hive:SQL on Hadoop

1、Hive简介

Hive 是一个基于 Hadoop 的数据仓库工具,主要用于处理和查询存储在 Hadoop 分布式文件系统 (HDFS) 中的大规模数据集。它提供了一个类似于 SQL 的查询语言,称为 HiveQL,使得用户可以通过简单的 SQL 查询语句来分析和处理大数据,而不需要编写复杂的 MapReduce 代码。

Hive 的主要特点:

1. SQL 风格的查询语言 (HiveQL)

  • Hive 提供了 HiveQL,类似于 SQL 的查询语言,使得熟悉 SQL 的用户能够轻松上手,对存储在 HDFS 中的数据进行查询、分析和处理。

2. 面向批处理的查询

  • Hive 主要用于大规模数据的批处理任务,它将 HiveQL 查询转换为 MapReduce 作业在 Hadoop 集群上执行,因此适合处理海量数据集的离线分析任务。

3. 与 Hadoop 的深度集成

  • Hive 构建在 Hadoop 之上,利用 HDFS 进行数据存储,利用 MapReduce 执行查询。它能够无缝地与 Hadoop 生态系统中的其他组件集成,如 HBase、Pig、Spark 等。

4. 可扩展性和容错性

  • 由于 Hive 依赖于 Hadoop,其查询执行具有良好的可扩展性和容错性。可以处理从 GB 到 PB 级别的数据,支持在大型集群上运行。

2、Hive架构

Hive 的架构设计由多个核心组件组成,每个组件在数据处理流程中扮演不同的角色。主要的组件包括 Metastore、Driver、Compiler、Executor、CLI/UI、以及各类连接器。

1. Metastore

Metastore 是 Hive 的元数据存储系统,它存储了关于 Hive 表、数据库、分区、列、索引等结构化数据的元数据信息。Metastore 使用 RDBMS(如 MySQL、PostgreSQL)来存储元数据,并通过 Thrift 服务向 Hive 提供元数据访问。

元数据管理:

  • Metastore 管理着 Hive 表的所有元数据,包括表的模式、表所在的 HDFS 位置、分区信息、列的数据类型、表的存储格式等。

模式(Schema)信息:

  • Hive 的 Schema-on-Read 模式允许在查询数据时应用模式,Metastore 存储并维护这些模式信息。

2. Driver

Driver 是 Hive 的核心控制器,负责管理整个查询的生命周期。它处理用户请求,管理查询的编译、优化、执行等过程。

查询编译:

  • Driver 解析用户的 HiveQL 查询,将其转换为抽象语法树(AST),并进一步生成逻辑执行计划。

查询优化:

  • 在生成执行计划后,Driver 会进行一系列的优化步骤,如谓词下推、列剪裁、join 优化等,以提升查询执行效率。

查询执行:

  • 优化后的执行计划会通过 Executor 提交给 Hadoop 集群执行,Driver 负责管理整个执行过程,直到任务完成并返回结果。


3. Compiler

Compiler 是将 HiveQL 查询转换为可执行代码的组件。它从 Driver 接收到的语法树开始,生成逻辑执行计划并进一步优化。

逻辑计划生成:

  • Compiler 负责将查询语句转换为逻辑执行计划,这个计划描述了查询的操作顺序和数据流。


物理计划生成:

  • Compiler 进一步将逻辑计划转换为物理执行计划,包含实际的 MapReduce、Tez 或 Spark 作业。


4. Executor

Executor 是负责执行物理计划的组件。它将编译器生成的物理计划提交到 Hadoop 集群,并监控任务的执行。

任务提交:

  • Executor 将物理计划分解为一个或多个 MapReduce、Tez 或 Spark 任务,并将这些任务提交到 YARN 进行调度和执行。

任务监控:

  • Executor 监控任务的运行状态,处理任务失败的重试和错误恢复,确保任务正确执行并最终返回结果。

3、HiveQL语言基础

HiveQL 的语法与 SQL 类似,支持常见的 SQL 操作,如 SELECT、INSERT、UPDATE、DELETE 等。它可以用于查询、插入数据、创建和管理表等。

SELECT 查询

SELECT column1, column2
FROM table_name
WHERE condition
ORDER BY column1
LIMIT 10;
  • SELECT: 用于从一个或多个表中提取数据。
  • FROM: 指定要查询的表。
  • WHERE: 过滤满足条件的数据。
  • ORDER BY: 对结果集进行排序。
  • LIMIT: 限制返回的记录数。


创建表

CREATE TABLE table_name (
  column1 STRING,
  column2 INT,
  column3 FLOAT
)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
STORED AS TEXTFILE;
  • CREATE TABLE: 用于创建新的表。
  • ROW FORMAT DELIMITED: 指定数据的行格式和字段分隔符。
  • STORED AS: 定义数据的存储格式(如 TEXTFILE、ORC、PARQUET 等)。


插入数据

INSERT INTO TABLE table_name
VALUES ('value1', 123, 45.67);
  • INSERT INTO: 向表中插入数据。
  • VALUES: 定义插入的数据值。

分区表

CREATE TABLE partitioned_table (
  column1 STRING,
  column2 INT
)
PARTITIONED BY (date STRING)
STORED AS TEXTFILE;

INSERT INTO TABLE partitioned_table PARTITION (date='2024-08-19')
VALUES ('value1', 123);
  • PARTITIONED BY: 创建分区表,按照指定的列进行分区。
  • INSERT INTO PARTITION: 向指定分区插入数据。

4、Hive应用场景

Hive 是一种基于 Hadoop 的数据仓库工具,主要用于在 HDFS 上处理和分析大规模数据集。其应用场景主要集中在数据仓库、数据分析和报表生成方面,以下是一些典型的应用场景:

1. 数据仓库

Hive 是为处理大规模数据的传统数据仓库需求而设计的。它为企业提供了将大数据存储在 Hadoop 集群中,并利用 SQL 语言(HiveQL)进行复杂查询和分析的能力。Hive 可以用于:

  • ETL 过程:在将数据加载到 Hadoop 之前进行提取、转换和加载(Extract, Transform, Load)。
  • 数据聚合:在大数据集上运行聚合查询(如 SUM、COUNT、AVG)以生成报告或统计信息。
  • 数据存储和归档:将数据存储在 HDFS 中,并提供高效的数据检索能力。


2. 数据分析

Hive 允许分析人员使用熟悉的 SQL 语言来查询和分析存储在 Hadoop 上的数据,支持快速编写和执行复杂的分析查询。适用于:

  • 行为分析:通过分析网站点击流数据、用户行为日志等,生成用户行为模式、热门内容等。
  • 业务报告生成:定期生成各种业务报告,如销售报告、财务报告等。

3. 日志分析

Hive 非常适合分析大规模的日志数据,如服务器日志、应用日志、网络流量日志等。可以在 Hive 中存储和查询这些日志,以识别系统性能问题、安全事件或用户行为模式。例如:

  • Web 日志分析:分析 web 服务器日志以跟踪用户访问路径、频率、停留时间等。
  • 安全日志分析:分析防火墙、IDS/IPS 设备生成的安全日志,以检测潜在的威胁和异常行为。


4. 数据挖掘

利用 Hive 进行数据挖掘任务,例如:

  • 客户细分:通过分析客户数据,识别不同类型的客户群体。
  • 推荐系统:分析用户行为数据,生成个性化推荐。

三、Pig:数据流的脚本语言

1、Pig概述:设计哲学与优势

Apache Pig 是一种高层次的数据流脚本语言和执行框架,主要用于处理大规模数据集。它最初由 Yahoo! 开发,后来成为 Apache 软件基金会的顶级项目。Pig 的核心组件包括 Pig Latin 脚本语言和 Pig 运行时环境。

Pig 的设计哲学

  1. 简化大数据处理: Pig 的主要设计目标是让开发者能够更简单、更快速地编写大数据处理任务,而不必深入了解底层复杂的分布式计算框架(如 Hadoop MapReduce)。Pig Latin 语言类似于 SQL,使得用户可以以声明性的方式指定数据处理逻辑,而无需编写复杂的代码。
  2. 灵活性: 虽然 Pig 提供了高层次的抽象,但它并不限制用户在必要时使用更低级别的编程模型。用户可以在 Pig 脚本中插入 UDF(用户自定义函数)来扩展其功能,从而实现复杂的操作。
  3. 可扩展性和可组合性: Pig 的架构设计使得它能够轻松地处理各种规模的数据集,从 GB 级到 PB 级的数据。Pig Latin 语言中的各类操作符(如过滤、分组、连接等)可以灵活组合,处理复杂的数据流任务。
  4. 与 Hadoop 紧密集成: Pig 运行时环境在底层将 Pig Latin 脚本编译为 Hadoop 的 MapReduce 作业。因此,Pig 可以在现有的 Hadoop 集群上运行,利用 Hadoop 的分布式存储和处理能力。

 

Pig 的优势

  1. 简化编程: 与传统的 MapReduce 编程相比,Pig Latin 大大简化了数据处理任务的编写,减少了代码量,提高了开发效率。开发者只需关注数据处理的逻辑,而无需关心底层的执行细节。
  2. 易于学习: Pig Latin 语言设计类似于 SQL,使得熟悉 SQL 的用户可以快速上手。此外,Pig 提供了丰富的内置函数库,用于常见的数据处理任务。
  3. 强大的数据处理能力: Pig 能够处理半结构化和非结构化的数据,这使得它非常适合处理像日志文件、社交媒体数据等非标准化的数据源。
  4. 可扩展性: Pig 可以扩展为处理非常大的数据集,从而满足大规模数据分析的需求。它可以轻松地处理从数百 MB 到数 PB 的数据。
  5. 灵活的执行模式: Pig 支持多种执行模式,包括本地模式和分布式模式。在开发和测试阶段,用户可以在本地模式下运行 Pig 脚本,而在生产环境中,脚本可以在 Hadoop 集群上以分布式方式执行。
  6. 容错能力: Pig 依赖 Hadoop 的 MapReduce 引擎,因此继承了 Hadoop 的容错能力。在节点失败时,Pig 能够自动重新调度任务,从而保证作业的顺利完成。

2、Pig 的核心组件

Pig Latin 语言

  • 简介: Pig Latin 是 Pig 的脚本语言,专门用于描述数据流处理逻辑。它类似于 SQL,但具有更大的灵活性,可以处理结构化、半结构化和非结构化数据。Pig Latin 支持多种操作符,如过滤、分组、连接、排序等,用户可以通过编写 Pig Latin 脚本来定义数据的输入、处理和输出过程。
  • 数据模型: Pig 的数据模型由原子、元组、包、映射四种数据类型组成。Pig Latin 可以操作这些数据类型来实现复杂的数据处理任务。


Pig 编译器

  • 解析: 当用户提交 Pig Latin 脚本时,Pig 编译器首先会解析脚本,检查语法错误,并生成抽象语法树(AST)。在这一步,编译器会确保脚本的语法正确,并且所有引用的变量和操作符都存在。
  • 逻辑计划生成: 解析后的 AST 会被转化为一个逻辑计划,这个计划描述了数据处理的逻辑流程。逻辑计划是与具体执行环境无关的,它只描述了数据处理的操作序列,而不涉及具体的执行方式。
  • 物理计划生成: 在生成逻辑计划后,编译器会进一步生成物理计划。物理计划指定了每个数据处理步骤的具体实现方式,如使用 MapReduce 作业来执行分组操作。物理计划是执行计划的具体化,它映射到具体的执行框架(如 Hadoop MapReduce)。


Pig 执行引擎

  • 执行计划优化: 在生成物理计划后,Pig 的执行引擎会对物理计划进行优化。这些优化可以包括合并操作符、移除冗余操作、优化数据传输等,以提高作业的执行效率。
  • MapReduce 任务生成: Pig 的执行引擎会将优化后的物理计划转化为一系列的 MapReduce 作业。在 Hadoop 集群上,这些 MapReduce 作业会被调度和执行。Pig 的执行引擎负责将 Pig Latin 中的高层操作符映射到低层次的 MapReduce 作业。


用户自定义函数(UDF)

  • 扩展功能: 虽然 Pig Latin 提供了丰富的内置函数库,但在某些情况下,用户可能需要定义自己的函数来处理特殊的数据转换或计算。Pig 允许用户使用 Java、Python、JavaScript 等语言编写 UDF,并在 Pig Latin 脚本中调用这些函数。
  • 集成: UDF 可以无缝地集成到 Pig 的执行流程中,作为自定义的操作符来处理数据。Pig 编译器和执行引擎会处理 UDF 与其他操作符的结合,使其成为整个数据处理流程的一部分。

3、Pig 的执行流程

  1. 脚本提交: 用户编写 Pig Latin 脚本并提交给 Pig。
  2. 解析和逻辑计划生成: Pig 编译器解析脚本并生成逻辑计划。
  3. 物理计划生成: Pig 编译器将逻辑计划转化为物理计划。
  4. 执行计划优化: Pig 执行引擎对物理计划进行优化。
  5. MapReduce 任务生成和执行: Pig 执行引擎将优化后的计划转化为 MapReduce 作业并在 Hadoop 上执行。
  6. 结果输出: 执行完成后,结果会被存储到指定的输出位置(如 HDFS)。 

 

 

4、Pig与Hive的对比

语言特性    

  • Pig:Pig Latin是一种数据流语言,注重数据处理的过程性,适用于实时分析场景。    
  • Hive:HiveQL类似于SQL,提供了完整的SQL查询功能,适用于离线数据分析。

学习成本    

  • Pig:Pig Latin虽然简洁,但需要一定的学习成本,因为它提供了一套高级的数据流操作语言。    
  • Hive:HiveQL与SQL相似,降低了学习成本,尤其对于具有SQL背景的用户。

数据类型处理    

  • Pig:Pig能够处理各种数据类型,包括结构化、半结构化和非结构化数据。    
  • Hive:Hive更适合处理大规模的结构化数据。

执行效率    

  • Pig:Pig旨在提供快速的执行效率,适合需要快速处理大量数据的场合。    
  • Hive:Hive适用于处理和分析历史数据,尤其是在数据仓库环境中。

集成与扩展    

  • Pig:Pig可以与其他Hadoop生态系统组件(如Spark)集成,提高数据处理的灵活性。    
  • Hive:Hive同样支持与其他Hadoop组件的集成,并提供了用户自定义函数(UDF)等功能来扩展其能力。

优化机制    

  • Pig:Pig在执行时会进行内部优化,减少数据的实际扫描次数,提高处理效率。    
  • Hive:Hive也提供了多种优化机制,如分区、桶、压缩等,以提升查询性能。

💕💕💕每一次的分享都是一次成长的旅程,感谢您的陪伴和关注。希望这些关于大数据的文章能陪伴您走过技术的一段旅程,共同见证成长和进步!😺😺😺

🧨🧨🧨让我们一起在技术的海洋中探索前行,共同书写美好的未来!!!  

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2084784.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

native 添加堆栈

第一种方法 montecarloh53b getVehicleModel:default error: frameworks/native/services/surfaceflinger/Android.bp:248:1: module "surfaceflinger" variant "android_arm64_armv8-a": depends on //system/unwinding/libbacktrace:libbacktrace which …

YarnClient发送和接收请求源码解析

YarnClient发送和接收请求流程 Yarn是通过RPC协议通信的,协议类型可以通过查看RpcKind类得知,总共有三种类型: RPC_BUILTIN ((short) 1), // Used for built in calls by tests RPC_WRITABLE ((short) 2), // Use WritableRp…

CentOS 7安装和配置 NFS

前言 NFS 是 Network File System 的缩写,即网络文件系统。功能是让客户端通过网络访问不同主机上磁盘里的数据,主要用在类 Unix 系统上实现文件共享的一种方法。本例演示 CentOS 7 下安装和配置 NFS 的基本步骤。 环境说明 CentOS 7(Mini…

Agent Q介绍:具有规划和自愈能力的下一代人工智能代理的研究突破

近年来,大型语言模型(LLM)的功能已经改变了自然语言处理和理解,取得了令人瞩目的里程碑式成就。尽管取得了这些进步,大型语言模型在交互环境中仍面临巨大挑战,尤其是在需要多步骤推理的任务中,如…

变电站智能巡检机器人:构建智能化电力运维新模式

随着现代电力系统规模的不断扩大,变电站作为电力输送和分配的关键节点,面临着越来越高的运维要求。传统的人工巡检方式存在效率低、劳动强度大、安全隐患多等问题,无法满足日益复杂的电力系统需求。在此背景下,变电站智能巡检机器…

偷偷用了这10款AI写作神器,再也没加过班!

前言 [ 自2022年Chat-GPT在全球掀起AI革命浪潮,AI开始在内容的生产方式进行颠覆性改变。 其中,AI写作工具的崛起,为内容创作者打开了一个全新创作世界,无论用户在办公写作、自媒体写作还是兴趣写作,在效率方面都得到…

【数据结构】优先级队列 — 堆

文章目录 前言1. 优先级队列1.1 概念1.2 特性 2. 堆2.1 概念2.2 存储方式 3. 堆的模拟实现3.1 堆的创建3.2 堆的插入3.3 堆的删除 4. PriorityQueue4.1 注意事项4.2 构造器介绍4.3 常用方法介绍 5. 经典题型6. 结语 前言 我们之前学习过队列,它是遵循先进先出原则的…

云上Oracle 数据库本地备份部署测试

1.说明 由于运行在云上的Oracle数据库暂无本地备份,为了保障租户业务系统的可持续性以及数据安全,特此进行数据库备份本地部署并进行测试。 2.备份策略 (1)数据库数据量 SQL> select sum(bytes)/1024/1024/1024 from dba_segme…

自建电商网站整合Refersion教程

前言:   先介绍一下Refersion有啥用,如果你有一个自己的跨境电商独立站点,想找一些网红帮忙推广销售自己的商品,然后按照转化订单比例给网红支付佣金,这件事情对双方来说透明性和实时性很重要,Refersion就…

《多模态大规模语言模型基准》综述

论文链接:https://arxiv.org/pdf/2408.08632 MLLM:Multimodal Large Language Models 评估多模态大型语言模型(MLLMs)的重要性体现在以下几个方面: 1. 理解模型能力:通过评估,研究人员和开发…

攀高行为检测识别摄像机

攀高行为检测识别摄像机 是一种结合了图像识别技术和智能算法的设备,旨在监测和识别人员在高空作业中的攀高行为,及时发现潜在的安全隐患并提供预警。这种摄像机可以有效提高工作场所的安全管理水平,减少高空作业事故的发生。 攀高行为检测识…

微软CEO谈AI平台范式转移、AI发展趋势及资本市场动态

为大家整理编辑了近期微软CEO萨提亚纳德拉 (Satya Nadella)著名科技KOLBen Thompson播客采访的精华内容。 在采访中,萨提亚纳德拉 (Satya Nadella)畅谈了人工智能平台范式转移、与Open AI等合作伙伴的关系、AI未来五年的发展方向、以及资本市场的趋势。 萨提亚纳德…

VUE3生命周期钩子

生命周期 vue2的生命周期钩子 beforeCreate:开始初始化事件和生命周期,但还没有data、methods、computed、watch属性,也就是vue实例的挂载元素$el和数据对象data都为undefined,还未初始化。 created:实完成数据挂载、…

PowerBi 柱形图,数据标签无法显示在端外

如图 即使设置了“数据标签”显示“端外“,仍然不作用。 原因其实是因为Y轴的数据范围设置不当,如图,当前Y轴范围是0到自动 只需要修改为最大和最小值都是自动即可,选中0 按backspace键删除,然后,鼠标在任意…

Parade Series - 3D Modeling

FBX FBX(Filmbox)文件格式是一种广泛使用的三维模型和动画文件格式,由Autodesk开发和维护。 FBX格式支持多种3D数据类型,包括几何、材质、纹理、动画、骨骼、灯光和摄像机等;OBJ MTL OBJ文件格式是一种用于表示三维几何形状的标…

OpenAI 神秘模型「草莓」预计今秋推出,ChatGPT 将迎重大升级|TodayAI

有外媒报道指出,OpenAI 内部代号为「Strawberry(草莓)」的 AI 模型即将在今年秋季面世。这一消息引发了业内广泛关注,被认为可能会为 ChatGPT 带来今年最重要的升级。 「草莓」模型的强大能力与应用潜力 据《The Information》报…

EPLAN中绘制黑盒的具体方法

EPLAN中绘制黑盒的具体方法 对于某些电气元件没有EDZ部件库时,可以自己绘制黑盒来解决,具体方法可参考以下内容: 如下图所示,打开EPLAN软件,在项目中新建一页多线原理图, 如下图所示,点击插入----盒子/连接点/安装板--------黑盒, 设置所需的参数和属性,然后放置在图框绘制…

算法入门-深度优先搜索1

第六部分:深度优先搜索 144.二叉树的前序遍历(简单) 题目:给你二叉树的根节点 root ,返回它节点值的 前序 遍历。 示例 1: 输入:root [1,null,2,3] 输出:[1,2,3] 第一种思路&am…

AtCoder Beginner Contest 366(D~E题解)

闲来无事去vp了一下之前放假没打的比赛,感觉需要总结的也就这两题吧,a,c都是水题,b只不过是实现有一点难,并不是很难写,d是一个需要自己推的三维前缀和,e也是一种前缀和,我当时没想到…

WEB渗透Win提权篇-白名单提权

提权工具合集包(免费分享): 夸克网盘分享 往期文章 WEB渗透Win提权篇-提权工具合集-CSDN博客 WEB渗透Win提权篇-RDP&Firewall-CSDN博客 WEB渗透Win提权篇-MSSQL-CSDN博客 WEB渗透Win提权篇-MYSQL-udf-CSDN博客 WEB渗透Win提权篇-Acc…