Iceberg 学习笔记

news2024/12/25 0:23:21

本博客对应于 B 站尚硅谷教学视频 尚硅谷数据湖Iceberg实战教程(尚硅谷&Apache Iceberg官方联合推出),为视频对应笔记的相关整理。

1. Iceberg简介

1.1 概述

为了解决数据存储和计算引擎之间的适配的问题,Netflix 开发了 Iceberg,2018 年 11 月 16 日进入 Apache 孵化器,2020 年 5 月 19 日从孵化器毕业,成为 Apache 的顶级项目。

Iceberg 是一个面向海量数据分析场景的开放表格式(Table Format)。表格式(Table Format)可以理解为元数据以及数据文件的一种组织方式,处于计算框架(Flink,Spark…)之下,数据文件之上。

1.2 特性

1.2.1 数据存储、计算引擎插件化

Iceberg 提供一个开放通用的表格式(Table Format)实现方案,不和特定的数据存储、计算引擎绑定。目前大数据领域的常见数据存储(HDFS、S3…),计算引擎(Flink、Spark…)都可以接入 Iceberg。

在生产环境中,可选择不同的组件搭使用。甚至可以不通过计算引擎,直接读取存在文件系统上的数据。

1.2.2 实时流批一体

Iceberg 上游组件将数据写入完成后,下游组件及时可读,可查询。可以满足实时场景。并且 Iceberg 同时提供了流/批读接口、流/批写接口。可以在同一个流程里,同时处理流数据和批数据,大大简化了ETL链路。

1.2.3 数据表演化(Table Evolution)

Iceberg 可以通过 SQL 的方式进行表级别模式演进。进行这些操作的时候,代价极低。不存在读出数据重新写入或者迁移数据这种费时费力的操作。

比如在常用的 Hive 中,如果我们需要把一个按天分区的表,改成按小时分区。此时,不能再原表之上直接修改,只能新建一个按小时分区的表,然后再把数据 Insert 到新的小时分区表。而且,即使我们通过 Rename 的命令把新表的名字改为原表,使用原表的上次层应用,也可能由于分区字段修改,导致需要修改 SQL,这样花费的经历是非常繁琐的。

1.2.4 模式演化(Schema Evolution)

Iceberg 支持下面几种模式演化:

  • ADD:向表或者嵌套结构增加新列

  • Drop:从表中或者嵌套结构中移除一列

  • Rename:重命名表中或者嵌套结构中的一列

  • Update:将复杂结构(struct, map<key, value>,list)中的基本类型扩展类型长度, 比如 tinyint 修改成 int.

  • Reorder:改变列或者嵌套结构中字段的排列顺序

Iceberg 保证模式演化(Schema Evolution)是没有副作用的独立操作流程,一个元数据操作, 不会涉及到重写数据文件的过程。具体的如下:

  • 增加列时候,不会从另外一个列中读取已存在的的数据

  • 删除列或者嵌套结构中字段的时候,不会改变任何其他列的值

  • 更新列或者嵌套结构中字段的时候,不会改变任何其他列的值

  • 改变列列或者嵌套结构中字段顺序的时候,不会改变相关联的值

在表中,Iceberg 使用唯一 ID 来定位每一列的信息。新增一个列的时候,会新分配给它一个唯一 ID,并且绝对不会使用已经被使用的ID。

使用名称或者位置信息来定位列的, 都会存在一些问题,比如使用名称的话,名称可能会重复, 使用位置的话,不能修改顺序并且废弃的字段也不能删除。

1.2.5 分区演化(Partition Evolution)

Iceberg 可以在一个已存在的表上直接修改,因为 Iceberg 的查询流程并不和分区信息直接关联。

当我们改变一个表的分区策略时,对应修改分区之前的数据不会改变,依然会采用老的分区策略,新的数据会采用新的分区策略,也就是说同一个表会有两种分区策略,旧数据采用旧分区策略,新数据采用新新分区策略,在元数据里两种分区策略相互独立,不重合。

在查询数据的时候,如果存在跨分区策略的情况,则会解析成两个不同执行计划,如 Iceberg 官网提供图所示:

文章配图

图中 booking_table 表 2008 年按月分区,进入 2009年 后改为按天分区,这两中分区策略共存于该表中。

借助 Iceberg 的隐藏分区(Hidden Partition),在写 SQL 查询的时候,不需要在 SQL 中特别指定分区过滤条件,Iceberg 会自动分区,过滤掉不需要的数据。

Iceberg 分区演化操作同样是一个元数据操作, 不会重写数据文件。

1.2.6 列顺序演化(Sort Order Evolution)

Iceberg 可以在一个已经存在的表上修改排序策略。修改了排序策略之后,旧数据依旧采用老排序策略不变。往Iceberg里写数据的计算引擎总是会选择最新的排序策略,但是当排序的代价极其高昂的时候, 就不进行排序了。

1.2.7 隐藏分区(Hidden Partition)

Iceberg 的分区信息并不需要人工维护,它可以被隐藏起来。不同于其他类似 Hive 的分区策略,Iceberg 的分区字段/策略(通过某一个字段计算出来),可以不是表的字段和表数据存储目录也没有关系。在建表或者修改分区策略之后,新的数据会自动计算所属于的分区。在查询的时候同样不用关心表的分区是什么字段/策略,只需要关注业务逻辑,Iceberg 会自动过滤不需要的分区数据。

正是由于 Iceberg 的分区信息和表数据存储目录是独立的,使得 Iceberg 的表分区可以被修改,而且不涉及到数据迁移。

1.2.8 时间旅行查询(Time Travel)

Iceberg 提供了查询表历史某一时间点数据镜像(snapshot)的能力。通过该特性可以将最新的SQL逻辑,应用到历史数据上。

1.2.9 支持事务(ACID)

Iceberg 通过提供事务(ACID)的机制,使其具备了 upsert 的能力并且使得边写边读成为可能,从而数据可以更快的被下游组件消费。通过事务保证了下游组件只能消费已 commit 的数据,而不会读到部分甚至未提交的数据。

1.2.10 基于乐观锁的并发支持

Iceberg 基于乐观锁提供了多个程序并发写入的能力并且保证数据线性一致。

1.2.11 文件级数据剪裁

Iceberg 的元数据里面提供了每个数据文件的一些统计信息,比如最大值,最小值,Count 计数等等。因此,查询 SQL 的过滤条件除了常规的分区,列过滤,甚至可以下推到文件级别,大大加快了查询效率。

1.3 其他数据湖框架的对比

image-20230815103324106

2. 存储结构

image-20230815103351452

image-20230815103434531

2.1 数据文件 data files

数据文件是 Apache Iceberg 表真实存储数据的文件,一般是在表的数据存储目录的 data 目录下,如果我们的文件格式选择的是 parquet,那么文件是以 .parquet 结尾。

例如:00000-0-atguigu_20230203160458_22ee74c9-643f-4b27-8fc1-9cbd5f64dad4-job_1675409881387_0007-00001.parquet 就是一个数据文件。

Iceberg 每次更新会产生多个数据文件(data files)。

2.2 表快照 Snapshot

快照代表一张表在某个时刻的状态。每个快照里面会列出表在某个时刻的所有 data file 列表。data file 存储在不同的 manifest file 里面,manifest file 存储在一个 Manifest list文 件里面,而一个 Manifest list 文件代表一个快照。

2.3 清单列表 Manifest list

manifest list 是一个元数据文件,列出构建表快照(Snapshot)的清单(Manifest file)。这个元数据文件中存储的是 Manifest file 列表,每个 Manifest file 占据一行。每行中存储了 Manifest file 的路径、其存储数据文件(data files)的分区范围,增加了几个数文件、删除了几个数据文件等信息,这些信息可以用来在查询时提供过滤,加快速度。

例如:snap-6746266566064388720-1-52f2f477-2585-4e69-be42-bbad9a46ed17.avro 就是一个 Manifest List 文件。

2.4 清单文件 Manifest file

Manifest file 也是一个元数据文件,它列出组成快照(snapshot)的数据文件(data file)的列表信息。每行都是每个数据文件的详细描述,包括数据文件的状态、文件路径、分区信息、列级别的统计信息(比如每列的最大最小值、空值数等)、文件的大小以及文件里面数据行数等信息。其中列级别的统计信息可以在扫描表数据时过滤掉不必要的文件。

Manifest file 是以 avro 格式进行存储的,以 .avro 后缀结尾,例如:52f2f477-2585-4e69-be42-bbad9a46ed17-m0.avro。

3. 与 Hive集成

3.1 环境准备

  1. Hive 与 Iceberg 的版本对应关系如下

    官方推荐 Hive 版本Hive 版本Iceberg 版本
    2.3.82.x0.8.0-incubating – 1.1.0
    3.1.23.x0.10.0 – 1.1.0

    Iceberg 与 Hive 2 和 Hive 3.1.2/3 的集成,支持以下特性:

    • 创建表

    • 删除表

    • 读取表

    • 插入表(INSERT into)

      更多功能需要Hive 4.x(目前 alpha 版本)才能支持。

  2. 上传 jar 包,拷贝到 Hive 的 auxlib 目录中

    mkdir auxlib
    cp iceberg-hive-runtime-1.1.0.jar /opt/module/hive/auxlib
    cp libfb303-0.9.3.jar /opt/module/hive/auxlib
    
  3. 修改 hive-site.xml,添加配置项

    <property>
        <name>iceberg.engine.hive.enabled</name>
        <value>true</value>
    </property>
    <property>
        <name>hive.aux.jars.path</name>
        <value>/opt/module/hive/auxlib</value>
    </property>
    

    使用 TEZ 引擎注意事项:

    1. Hive 版本 >=3.1.2,需要 TEZ 版本 >=0.10.1

    2. 指定 tez 更新配置:

      <property>
          <name>tez.mrreader.config.update.properties</name>
          <value>hive.io.file.readcolumn.names,hive.io.file.readcolumn.ids</value>
      </property>
      
    3. 从 Iceberg 0.11.0 开始,如果 Hive 使用 Tez 引擎,需要关闭向量化执行:

      <property>
          <name>hive.vectorized.execution.enabled</name>
          <value>false</value>
      </property>
      
  4. 启动HMS服务

  5. 启动 Hadoop

3.2 创建和管理 Catalog

Iceberg 支持多种不同的 Catalog 类型,例如:Hive、Hadoop、亚马逊的 AWS Glue 和自定义 Catalog。

根据不同配置,分为三种情况:

  1. 没有设置 iceberg.catalog,默认使用 HiveCatalog

  2. 设置 iceberg.catalog 的类型,使用指定的 Catalog 类型,如下表格:

    配置项说明
    iceberg.catalog.<catalog_name>.typeCatalog 的类型: hive, hadoop, 如果使用自定义 Catalog,则不设置
    iceberg.catalog.<catalog_name>.catalog-implCatalog 的实现类, 如果上面的 type 没有设置,则此参数必须设置
    iceberg.catalog.<catalog_name>.Catalog 的其他配置项
  3. 设置 iceberg.catalog=location_based_table,直接通过指定的根路径来加载 Iceberg 表。

3.1.1 默认使用 HiveCatalog

CREATE TABLE iceberg_test1 (i int)
STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler';
INSERT INTO iceberg_test1 values(1);

查看 HDFS 可以发现,表目录在默认的 hive 仓库路径下。

3.1.2 指定 Catalog 类型

  1. 使用 HiveCatalog

    set iceberg.catalog.iceberg_hive.type=hive;
    set iceberg.catalog.iceberg_hive.uri=thrift://hadoop1:9083;
    set iceberg.catalog.iceberg_hive.clients=10;
    set iceberg.catalog.iceberg_hive.warehouse=hdfs://hadoop1:8020/warehouse/iceberg-hive;
    
    CREATE TABLE iceberg_test2 (i int)
    STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
    TBLPROPERTIES('iceberg.catalog'='iceberg_hive');
    
    INSERT INTO iceberg_test2 values(1);
    
  2. 使用 HadoopCatalog

    set iceberg.catalog.iceberg_hadoop.type=hadoop;
    set iceberg.catalog.iceberg_hadoop.warehouse=hdfs://hadoop1:8020/warehouse/iceberg-hadoop;
    
    CREATE TABLE iceberg_test3 (i int)
    STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
    LOCATION 'hdfs://hadoop1:8020/warehouse/iceberg-hadoop/default/iceberg_test3'
    TBLPROPERTIES('iceberg.catalog'='iceberg_hadoop');
    
    INSERT INTO iceberg_test3 values(1);
    

3.1.3 指定路径加载

如果 HDFS 中已经存在 iceberg 格式表,我们可以通过在 Hive 中创建 Icerberg 格式表指定对应的 location 路径映射数据。

CREATE EXTERNAL TABLE iceberg_test4 (i int)
STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
LOCATION 'hdfs://hadoop1:8020/warehouse/iceberg-hadoop/default/iceberg_test3'
TBLPROPERTIES ('iceberg.catalog'='location_based_table');

3.3 基本操作

3.3.1 创建表

  1. 创建外部表

    CREATE EXTERNAL TABLE iceberg_create1 (i int)
    STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler';
    
    describe formatted iceberg_create1;
    
  2. 创建内部表

    CREATE TABLE iceberg_create2 (i int)
    STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler';
    
    describe formatted iceberg_create2;
    
  3. 创建分区表

    CREATE EXTERNAL TABLE iceberg_create3 (id int,name string)
    PARTITIONED BY (age int)
    STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler';
    
    describe formatted iceberg_create3;
    

    Hive 语法创建分区表,不会在 HMS 中创建分区,而是将分区数据转换为 Iceberg 标识分区。这种情况下不能使用 Iceberg 的分区转换,例如:days(timestamp),如果想要使用 Iceberg 格式表的分区转换标识分区,需要使用 Spark 或者 Flink 引擎创建表。

3.3.2 修改表

只支持 HiveCatalog 表修改表属性,Iceberg 表属性和 Hive 表属性存储在 HMS 中是同步的。

ALTER TABLE iceberg_create1 SET TBLPROPERTIES('external.table.purge'='FALSE');

3.3.3 插入表

支持标准单表 INSERT INTO 操作

INSERT INTO iceberg_create2 VALUES (1);

INSERT INTO iceberg_create1 select * from iceberg_create2;

在 HIVE 3.x 中,INSERT OVERWRITE 虽然能执行,但其实是追加。

3.3.4 删除表

DROP TABLE iceberg_create1;

4. 与 Spark SQL集成

4.1 环境准备

4.1.1 安装 Spark

  1. Spark 与 Iceberg 的版本对应关系如下

    Spark 版本Iceberg 版本
    2.40.7.0-incubating – 1.1.0
    3.00.9.0 – 1.0.0
    3.10.12.0 – 1.1.0
    3.20.13.0 – 1.1.0
    3.30.14.0 – 1.1.0
  2. 上传并解压 Spark 安装包

    tar -zxvf spark-3.3.1-bin-hadoop3.tgz -C /opt/module/
    mv /opt/module/spark-3.3.1-bin-hadoop3 /opt/module/spark-3.3.1
    
  3. 配置环境变量

    sudo vim /etc/profile.d/my_env.sh
    
    export SPARK_HOME=/opt/module/spark-3.3.1
    export PATH=$PATH:$SPARK_HOME/bin
    
    source /etc/profile.d/my_env.sh
    
  4. 拷贝 iceberg 的 jar 包到 Spark 的 jars 目录

    cp /opt/software/iceberg/iceberg-spark-runtime-3.3_2.12-1.1.0.jar /opt/module/spark-3.3.1/jars
    

4.1.2 启动 Hadoop

(略)

4.2 Spark 配置 Catalog

Spark 中支持两种 Catalog 的设置:hive 和 hadoop,Hive Catalog 就是 Iceberg 表存储使用 Hive 默认的数据路径,Hadoop Catalog 需要指定 Iceberg 格式表存储路径。

下面修改 spark 的默认配置文件

vim spark-defaults.conf

4.2.1 Hive Catalog

将下面的代码配置到 spark-defaults.conf 文件中

spark.sql.catalog.hive_prod = org.apache.iceberg.spark.SparkCatalog
spark.sql.catalog.hive_prod.type = hive
spark.sql.catalog.hive_prod.uri = thrift://hadoop1:9083

4.2.2 Hadoop Catalog

将下面的代码配置到 spark-defaults.conf 文件中

spark.sql.catalog.hadoop_prod = org.apache.iceberg.spark.SparkCatalog
spark.sql.catalog.hadoop_prod.type = hadoop
spark.sql.catalog.hadoop_prod.warehouse = hdfs://hadoop1:8020/warehouse/spark-iceberg

4.3 SQL 操作

4.3.1 创建表

use hadoop_prod;

create database default;

use default;

CREATE TABLE hadoop_prod.default.sample1 (
id bigint COMMENT 'unique id',
data string)
USING iceberg;
  • PARTITIONED BY (partition-expressions) :配置分区

  • LOCATION ‘(fully-qualified-uri)’ :指定表路径

  • COMMENT ‘table documentation’ :配置表备注

  • TBLPROPERTIES (‘key’=‘value’, …) :配置表属性

    • 表属性:https://iceberg.apache.org/docs/latest/configuration/

对 Iceberg 表的每次更改都会生成一个新的元数据文件(json文件)以提供原子性。默认情况下,旧元数据文件作为历史文件保存不会删除。

如果要自动清除元数据文件,在表属性中设置 write.metadata.delete-after-commit.enabled=true。这将保留一些元数据文件(直到元数据文件版本数量超过 write.metadata.previous-versions-max),并在每个新创建的元数据文件之后删除旧的元数据文件。

  1. 创建分区表

    1. 分区表

      CREATE TABLE hadoop_prod.default.sample2 (
          id bigint,
          data string,
          category string
      )
      USING iceberg
      PARTITIONED BY (category)
      
    2. 创建隐藏分区表

      CREATE TABLE hadoop_prod.default.sample3 (
          id bigint,
          data string,
          category string,
          ts timestamp
      )
      USING iceberg
      PARTITIONED BY (bucket(16, id), days(ts), category)
      

      支持的转换有:

      • years(ts):按年划分
      • months(ts):按月划分
      • **days(ts) **或 date(ts):等效于 dateint 分区
      • hours(ts)date_hour(ts):等效于dateint和hour分区
      • **bucket(N, col)😗*按哈希值划分 mod N 个桶
      • truncate(L, col):按截断为 L 的值划分
        • 字符串被截断为给定的长度
  2. 使用 CTAS 语法建表

    CREATE TABLE hadoop_prod.default.sample4
    USING iceberg
    AS SELECT * from hadoop_prod.default.sample3
    

    不指定分区就是创建无分区,如需创建分区表,需要重新指定分区、表属性:

    CREATE TABLE hadoop_prod.default.sample5
    USING iceberg
    PARTITIONED BY (bucket(8, id), hours(ts), category)
    TBLPROPERTIES ('key' = 'value')
    AS SELECT * from hadoop_prod.default.sample3
    
  3. 使用 Replace table 建表

    REPLACE TABLE hadoop_prod.default.sample5
    USING iceberg
    AS SELECT * from hadoop_prod.default.sample3;
    
    REPLACE TABLE hadoop_prod.default.sample5
    USING iceberg
    PARTITIONED BY (part)
    TBLPROPERTIES ('key'='value')
    AS SELECT * from hadoop_prod.default.sample3;
    
    CREATE OR REPLACE TABLE hadoop_prod.default.sample6
    USING iceberg
    AS SELECT * from hadoop_prod.default.sample3
    

4.3.2 删除表

对于 HadoopCatalog 而言,运行 DROP TABLE 将从 catalog中 删除表并删除表内容。

CREATE EXTERNAL TABLE hadoop_prod.default.sample7 (
    id bigint COMMENT 'unique id',
    data string
)
USING iceberg;

INSERT INTO hadoop_prod.default.sample7 values(1,'a');

DROP TABLE hadoop_prod.default.sample7;

对于 HiveCatalog 而言:

  • 在 0.14 之前,运行 DROP TABLE 将从 catalog 中删除表并删除表内容。

  • 从 0.1 开始,DROP TABLE 只会从 catalog 中删除表,不会删除数据。为了删除表内容,应该使用 DROP table PURGE

CREATE TABLE hive_prod.default.sample7 (
    id bigint COMMENT 'unique id',
    data string
)
USING iceberg;

INSERT INTO hive_prod.default.sample7 values(1,'a');
  1. 删除表

    DROP TABLE hive_prod.default.sample7;
    
  2. 删除表和数据

    DROP TABLE hive_prod.default.sample7 PURGE
    

4.3.3 修改表

Iceberg 在 Spark 3 中完全支持 ALTER TABLE,包括:

  • 重命名表

  • 设置或删除表属性

  • 添加、删除和重命名列

  • 添加、删除和重命名嵌套字段

  • 重新排序顶级列和嵌套结构字段

  • 扩大 int、float 和 decimal 字段的类型

  • 将必选列变为可选列

此外,还可以使用 SQL 扩展来添加对分区演变的支持和设置表的写顺序。

CREATE TABLE hive_prod.default.sample1 (
	id bigint COMMENT 'unique id',
	data string
)
USING iceberg
  1. 修改表名(不支持修改 HadoopCatalog 的表名)

    ALTER TABLE hive_prod.default.sample1 RENAME TO hive_prod.default.sample2
    
  2. 修改表属性

    1. 修改表属性

      ALTER TABLE hive_prod.default.sample1 SET TBLPROPERTIES ('read.split.target-size' = '268435456');
      
      ALTER TABLE hive_prod.default.sample1 SET TBLPROPERTIES ('comment' = 'A table comment.');
      
    2. 删除表属性

      ALTER TABLE hive_prod.default.sample1 UNSET TBLPROPERTIES ('read.split.target-size')
      
  3. 添加列

    ALTER TABLE hadoop_prod.default.sample1 ADD COLUMNS (category string comment 'new_column');
    
    -- 添加struct类型的列
    ALTER TABLE hadoop_prod.default.sample1 ADD COLUMN point struct<x: double, y: double>;
    
    -- 往struct类型的列中添加字段
    ALTER TABLE hadoop_prod.default.sample1 ADD COLUMN point.z double;
    
    -- 创建struct的嵌套数组列
    ALTER TABLE hadoop_prod.default.sample1 ADD COLUMN points array<struct<x: double, y: double>>;
    
    -- 在数组中的结构中添加一个字段。使用关键字'element'访问数组的元素列。
    ALTER TABLE hadoop_prod.default.sample1 ADD COLUMN points.element.z double;
    
    -- 创建一个包含Map类型的列,key和value都为struct类型
    ALTER TABLE hadoop_prod.default.sample1 ADD COLUMN pointsm map<struct<x: int>, struct<a: int>>;
    
    -- 在Map类型的value的struct中添加一个字段
    ALTER TABLE hadoop_prod.default.sample1 ADD COLUMN pointsm.value.b int;
    

    在 Spark 2.4.4 及以后版本中,可以通过添加 FIRST 或 AFTER 子句在任何位置添加列:

    ALTER TABLE hadoop_prod.default.sample1 ADD COLUMN new_column1 bigint AFTER id;
    
    ALTER TABLE hadoop_prod.default.sample1 ADD COLUMN new_column2 bigint FIRST;
    
  4. 修改列

    1. 修改列名

      ALTER TABLE hadoop_prod.default.sample1 RENAME COLUMN data TO data1;
      
    2. Alter Column 修改类型(只允许安全的转换)

      ALTER TABLE hadoop_prod.default.sample1 ADD COLUMNS (idd int);
      
      ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN idd TYPE bigint;
      
    3. Alter Column 修改列的注释

      ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN id TYPE double COMMENT 'a';
      
      ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN id COMMENT 'b';
      
    4. Alter Column修改列的顺序

      ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN id FIRST;
      
      ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN new_column2 AFTER new_column1;
      
    5. Alter Column修改列是否允许为 null

      ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN id DROP NOT NULL;
      

    ALTER COLUMN 不能更新 struct 类型。使用 ADD COLUMNDROP COLUMN 添加或删除 struct 类型的字段。

  5. 删除列

    ALTER TABLE hadoop_prod.default.sample1 DROP COLUMN idd;
    
    ALTER TABLE hadoop_prod.default.sample1 DROP COLUMN point.z;
    
  6. 添加分区(Spark3,需要配置扩展)

    vim spark-default.conf
    

    增加下面的配置:

    spark.sql.extensions = org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions
    

    重新进入 spark-sql shell,然后执行以下 sql:

    ALTER TABLE hadoop_prod.default.sample1 ADD PARTITION FIELD category;
    
    ALTER TABLE hadoop_prod.default.sample1 ADD PARTITION FIELD bucket(16, id);
    
    ALTER TABLE hadoop_prod.default.sample1 ADD PARTITION FIELD truncate(data, 4);
    
    ALTER TABLE hadoop_prod.default.sample1 ADD PARTITION FIELD years(ts);
    
    ALTER TABLE hadoop_prod.default.sample1 ADD PARTITION FIELD bucket(16, id) AS shard
    
  7. 删除分区(Spark3,需要配置扩展)

    ALTER TABLE hadoop_prod.default.sample1 DROP PARTITION FIELD category;
    
    ALTER TABLE hadoop_prod.default.sample1 DROP PARTITION FIELD bucket(16, id);
    
    ALTER TABLE hadoop_prod.default.sample1 DROP PARTITION FIELD truncate(data, 4);
    
    ALTER TABLE hadoop_prod.default.sample1 DROP PARTITION FIELD years(ts);
    
    ALTER TABLE hadoop_prod.default.sample1 DROP PARTITION FIELD shard;
    

    注意,尽管删除了分区,但列仍然存在于表结构中。

    删除分区字段是元数据操作,不会改变任何现有的表数据。新数据将被写入新的分区,但现有数据将保留在旧的分区布局中。

    当分区发生变化时,动态分区覆盖行为也会发生变化。例如,如果按天划分分区,而改为按小时划分分区,那么覆盖将覆盖每小时划分的分区,而不再覆盖按天划分的分区。

    删除分区字段时要小心,可能导致元数据查询失败或产生不同的结果。

  8. 修改分区(Spark3,需要配置扩展)

    ALTER TABLE hadoop_prod.default.sample1 REPLACE PARTITION FIELD bucket(16, id) WITH bucket(8, id);
    
  9. 修改表的写入顺序

    ALTER TABLE hadoop_prod.default.sample1 WRITE ORDERED BY category, id;
    
    ALTER TABLE hadoop_prod.default.sample1 WRITE ORDERED BY category ASC, id DESC;
    
    ALTER TABLE hadoop_prod.default.sample1 WRITE ORDERED BY category ASC NULLS LAST, id DESC NULLS FIRST;
    

    表写顺序不保证查询的数据顺序。它只影响数据写入表的方式。

    WRITE ORDERED BY 设置了一个全局排序,即跨任务的行排序,就像在 INSERT 命令中使用 ORDER BY 一样:

    INSERT INTO hadoop_prod.default.sample1
    SELECT id, data, category, ts FROM another_table
    ORDER BY ts, category;
    

    要在每个任务内排序,而不是跨任务排序,使用 local ORDERED BY:

    ALTER TABLE hadoop_prod.default.sample1 WRITE LOCALLY ORDERED BY category, id;
    
  10. 按分区并行写入

    ALTER TABLE hadoop_prod.default.sample1 WRITE DISTRIBUTED BY PARTITION;
    
    ALTER TABLE hadoop_prod.default.sample1 WRITE DISTRIBUTED BY PARTITION LOCALLY ORDERED BY category, id;
    

4.3.4 插入数据

CREATE TABLE hadoop_prod.default.a (
    id bigint,
    count bigint
)
USING iceberg;

CREATE TABLE hadoop_prod.default.b (
    id bigint,
    count bigint,
    flag string
)
USING iceberg;
  1. Insert Into

    INSERT INTO hadoop_prod.default.a VALUES (1, 1), (2, 2), (3, 3);
    
    INSERT INTO hadoop_prod.default.b VALUES (1, 1, 'a'), (2, 2, 'b'), (4, 4, 'd');
    
  2. MERGE INTO 行级更新

    MERGE INTO hadoop_prod.default.a t USING (
        SELECT * FROM hadoop_prod.default.b
    ) u 
    ON t.id = u.id
    WHEN MATCHED AND u.flag='b' THEN UPDATE SET t.count = t.count + u.count
    WHEN MATCHED AND u.flag='a' THEN DELETE
    WHEN NOT MATCHED THEN INSERT (id,count) values (u.id,u.count);
    

4.3.5 查询数据

  1. 普通查询

    SELECT count(1) as count, data
    FROM hadoop_prod.default.a
    GROUP BY data
    
  2. 查询元数据

    -- 查询表快照
    SELECT * FROM hadoop_prod.default.a.snapshots;
    
    -- 查询数据文件信息
    SELECT * FROM hadoop_prod.default.a.files;
    
    -- 查询表历史
    SELECT * FROM hadoop_prod.default.a.history;
    
    -- 查询 manifest
    SELECT * FROM hadoop_prod.default.a.manifests;
    

4.3.6 存储过程

Procedures 可以通过 CALL 从任何已配置的 Iceberg Catalog` 中使用。所有 Procedures 都在 namespace 中。

  1. 语法
    按照参数名传参

    CALL catalog_name.system.procedure_name(arg_name_2 => arg_2, arg_name_1=> arg_1);
    

    当按位置传递参数时,如果结束参数是可选的,则只有结束参数可以省略。

    CALL catalog_name.system.procedure_name(arg_1, arg_2, ... arg_n);
    
  2. 快照管理

    1. 回滚到指定的快照id

      CALL hadoop_prod.system.rollback_to_snapshot('default.a', 7601163594701794741);
      
    2. 回滚到指定时间的快照

      CALL hadoop_prod.system.rollback_to_timestamp('db.sample', TIMESTAMP '2021-06-30 00:00:00.000');
      
    3. 设置表的当前快照ID

      CALL hadoop_prod.system.set_current_snapshot('db.sample', 1);
      
    4. 从快照变为当前表状态

      CALL hadoop_prod.system.cherrypick_snapshot('default.a', 7629160535368763452);
      
      CALL hadoop_prod.system.cherrypick_snapshot(snapshot_id => 7629160535368763452, table => 'default.a' );
      
  3. 元数据管理

    1. 删除早于指定日期和时间的快照,但保留最近 100 个快照:

      CALL hive_prod.system.expire_snapshots('db.sample', TIMESTAMP '2021-06-30 00:00:00.000', 100);
      
    2. 删除 Iceberg 表中任何元数据文件中没有引用的文件

      -- 列出所有需要删除的候选文件
      CALL catalog_name.system.remove_orphan_files(table => 'db.sample', dry_run => true);
      
      -- 删除指定目录中db.sample表不知道的任何文件
      CALL catalog_name.system.remove_orphan_files(table => 'db.sample', location => 'tablelocation/data')
      
    3. 合并数据文件(合并小文件)

      CALL catalog_name.system.rewrite_data_files('db.sample');
      
      CALL catalog_name.system.rewrite_data_files(table => 'db.sample', strategy => 'sort', sort_order => 'id DESC NULLS LAST, name ASC NULLS FIRST');
      
      CALL catalog_name.system.rewrite_data_files(table => 'db.sample', strategy => 'sort', sort_order => 'zorder(c1,c2)');
      
      CALL catalog_name.system.rewrite_data_files(table => 'db.sample', options => map('min-input-files', '2'));
      
      CALL catalog_name.system.rewrite_data_files(table => 'db.sample', where => 'id = 3 and name = "foo"');
      
    4. 重写表清单来优化执行计划

      CALL catalog_name.system.rewrite_manifests('db.sample')-- 重写表 db 中的清单文件,并禁用 Spark 缓存的使用,这样做可以避免执行程序上的内存问题
      CALL catalog_name.system.rewrite_manifests('db.sample', false);
      
  4. 迁移表

    1. 快照

      CALL catalog_name.system.snapshot('db.sample', 'db.snap');
      
      CALL catalog_name.system.snapshot('db.sample', 'db.snap', '/tmp/temptable/');
      
    2. 迁移

      CALL catalog_name.system.migrate('spark_catalog.db.sample', map('foo', 'bar'));
      
      CALL catalog_name.system.migrate('db.sample');
      
    3. 添加数据文件

      CALL spark_catalog.system.add_files(
          table => 'db.tbl',
          source_table => 'db.src_tbl',
          partition_filter => map('part_col_1', 'A')
      );
      
      CALL spark_catalog.system.add_files(
          table => 'db.tbl',
          source_table => '`parquet`.`path/to/table`'
      );
      
  5. 元数据信息

    1. 获取指定快照的父快照 id

      CALL spark_catalog.system.ancestors_of('db.tbl');
      
    2. 获取指定快照的所有祖先快照

      CALL spark_catalog.system.ancestors_of('db.tbl', 1);
      
      CALL spark_catalog.system.ancestors_of(snapshot_id => 1, table => 'db.tbl');
      

4.4 DataFrame 操作

4.4.1 环境准备

  1. 创建maven工程,配置pom文件

    <?xml version="1.0" encoding="UTF-8"?>
    <project xmlns="http://maven.apache.org/POM/4.0.0"
             xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
             xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
        <modelVersion>4.0.0</modelVersion>
    
        <groupId>com.atguigu.iceberg</groupId>
        <artifactId>spark-iceberg-demo</artifactId>
        <version>1.0-SNAPSHOT</version>
    
        <properties>
            <scala.binary.version>2.12</scala.binary.version>
            <spark.version>3.3.1</spark.version>
            <maven.compiler.source>8</maven.compiler.source>
            <maven.compiler.target>8</maven.compiler.target>
        </properties>
    
        <dependencies>
            <!-- Spark的依赖引入 -->
            <dependency>
                <groupId>org.apache.spark</groupId>
                <artifactId>spark-core_${scala.binary.version}</artifactId>
                <scope>provided</scope>
                <version>${spark.version}</version>
            </dependency>
            <dependency>
                <groupId>org.apache.spark</groupId>
                <artifactId>spark-sql_${scala.binary.version}</artifactId>
                <scope>provided</scope>
                <version>${spark.version}</version>
            </dependency>
            <dependency>
                <groupId>org.apache.spark</groupId>
                <artifactId>spark-hive_${scala.binary.version}</artifactId>
                <scope>provided</scope>
                <version>${spark.version}</version>
            </dependency>
    
            <!--fastjson <= 1.2.80 存在安全漏洞,-->
            <dependency>
                <groupId>com.alibaba</groupId>
                <artifactId>fastjson</artifactId>
                <version>1.2.83</version>
            </dependency>
            
    
            <!-- https://mvnrepository.com/artifact/org.apache.iceberg/iceberg-spark-runtime-3.3 -->
            <dependency>
                <groupId>org.apache.iceberg</groupId>
                <artifactId>iceberg-spark-runtime-3.3_2.12</artifactId>
                <version>1.1.0</version>
            </dependency>
    
    
        </dependencies>
    
        <build>
            <plugins>
                <!-- assembly打包插件 -->
                <plugin>
                    <groupId>org.apache.maven.plugins</groupId>
                    <artifactId>maven-assembly-plugin</artifactId>
                    <version>3.0.0</version>
                    <executions>
                        <execution>
                            <id>make-assembly</id>
                            <phase>package</phase>
                            <goals>
                                <goal>single</goal>
                            </goals>
                        </execution>
                    </executions>
                    <configuration>
                        <archive>
                            <manifest>
                            </manifest>
                        </archive>
                        <descriptorRefs>
                            <descriptorRef>jar-with-dependencies</descriptorRef>
                        </descriptorRefs>
                    </configuration>
                </plugin>
    
                <!--Maven编译scala所需依赖-->
                <plugin>
                    <groupId>net.alchim31.maven</groupId>
                    <artifactId>scala-maven-plugin</artifactId>
                    <version>3.2.2</version>
                    <executions>
                        <execution>
                            <goals>
                                <goal>compile</goal>
                                <goal>testCompile</goal>
                            </goals>
                        </execution>
                    </executions>
                </plugin>
            </plugins>
        </build>
    
    </project>
    
  2. 配置Catalog

    val spark: SparkSession = SparkSession.builder().master("local").appName(this.getClass.getSimpleName)
      //指定hive catalog, catalog名称为iceberg_hive
      .config("spark.sql.catalog.iceberg_hive", "org.apache.iceberg.spark.SparkCatalog")
      .config("spark.sql.catalog.iceberg_hive.type", "hive")
      .config("spark.sql.catalog.iceberg_hive.uri", "thrift://hadoop1:9083")
      //    .config("iceberg.engine.hive.enabled", "true")
      //指定hadoop catalog,catalog名称为iceberg_hadoop 
      .config("spark.sql.catalog.iceberg_hadoop", "org.apache.iceberg.spark.SparkCatalog")
      .config("spark.sql.catalog.iceberg_hadoop.type", "hadoop")
      .config("spark.sql.catalog.iceberg_hadoop.warehouse", "hdfs://hadoop1:8020/warehouse/spark-iceberg")
      .getOrCreate()
    

4.4.2 读取表

  1. 加载表

    spark.read
        .format("iceberg")
    	.load("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a")
    	.show()
    

    // 仅支持Spark3.0以上
    spark.table("iceberg_hadoop.default.a")
    	.show()
    
  2. 时间旅行:指定时间查询

    spark.read
        .option("as-of-timestamp", "499162860000")
        .format("iceberg")
        .load("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a")
        .show()
    
  3. 时间旅行:指定快照id查询

    spark.read
        .option("snapshot-id", 7601163594701794741L)
        .format("iceberg")
        .load("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a")
        .show()
    
  4. 增量查询

    spark.read
        .format("iceberg")
        .option("start-snapshot-id", "10963874102873")
        .option("end-snapshot-id", "63874143573109")
        .load("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a")
        .show()
    

    查询的表只能是 append 的方式写数据,不支持 replace, overwrite, delete 操作。

4.4.3 检查表

  1. 查询元数据

    spark.read.format("iceberg").load("iceberg_hadoop.default.a.files")
    spark.read.format("iceberg").load("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a#files")
    
  2. 元数据表时间旅行查询

    spark.read
        .format("iceberg")
        .option("snapshot-id", 7601163594701794741L)
        .load("iceberg_hadoop.default.a.files")
    

4.4.4 写入表

  1. 创建样例类,准备DF

    case class Sample(id:Int,data:String,category:String)
    val df: DataFrame = spark.createDataFrame(Seq(Sample(1, 'A', 'a'), Sample(2, 'B', 'b'), Sample(3, 'C', 'c')))
    
  2. 插入数据并建表

    df.writeTo("iceberg_hadoop.default.table1").create()
    
    import spark.implicits._
    df.writeTo("iceberg_hadoop.default.table1")
      .tableProperty("write.format.default", "orc")
      .partitionedBy($"category")
      .createOrReplace()
    
  3. append 追加

    df.writeTo("iceberg_hadoop.default.table1").append()
    
  4. 动态分区覆盖

    df.writeTo("iceberg_hadoop.default.table1").overwritePartitions()
    
  5. 静态分区覆盖

    import spark.implicits._
    df.writeTo("iceberg_hadoop.default.table1").overwrite($"category" === "c")
    
  6. 插入分区表且分区内排序

    df.sortWithinPartitions("category")
        .writeTo("iceberg_hadoop.default.table1")
        .append()
    

4.4.5 维护表

  1. 获取Table对象

    1. HadoopCatalog

      import org.apache.hadoop.conf.Configuration;
      import org.apache.iceberg.hadoop.HadoopCatalog;
      import org.apache.iceberg.Table;
      import org.apache.iceberg.catalog.TableIdentifier;
      
      val conf = new Configuration()
      val catalog = new HadoopCatalog(conf,"hdfs://hadoop1:8020/warehouse/spark-iceberg")
      val table: Table = catalog.loadTable(TableIdentifier.of("db","table1"))
      
    2. HiveCatalog

      import org.apache.iceberg.hive.HiveCatalog;
      import org.apache.iceberg.Table;
      import org.apache.iceberg.catalog.TableIdentifier;
      
      val catalog = new HiveCatalog()
      catalog.setConf(spark.sparkContext.hadoopConfiguration)
      
      val properties = new util.HashMap[String,String]()
      properties.put("warehouse", "hdfs://hadoop1:8020/warehouse/spark-iceberg")
      properties.put("uri", "thrift://hadoop1:9083")
      
      catalog.initialize("hive", properties)
      val table: Table = catalog.loadTable(TableIdentifier.of("db", "table1"))
      
  2. 快照过期清理
    每次写入 Iceberg 表都会创建一个表的新快照或版本。快照可以用于时间旅行查询,或者将表回滚到任何有效的快照。建议设置快照过期时间,过期的旧快照将从元数据中删除(不再可用于时间旅行查询)。

    // 1 天过期时间
    val tsToExpire: Long = System.currentTimeMillis() - (1000 * 60 * 60 * 24)
    
    table.expireSnapshots()
      .expireOlderThan(tsToExpire)
      .commit()
    

    或使用 SparkActions 来设置过期:

    // SparkActions 可以并行运行大型表的表过期设置
    SparkActions.get()
      .expireSnapshots(table)
      .expireOlderThan(tsToExpire)
      .execute()
    
  3. 删除无效文件
    在 Spark 和其他分布式处理引擎中,任务或作业失败可能会留下未被表元数据引用的文件,在某些情况下,正常的快照过期可能无法确定不再需要并删除该文件。

    SparkActions
        .get()
        .deleteOrphanFiles(table)
        .execute()
    
  4. 合并小文件
    数据文件过多会导致更多的元数据存储在清单文件中,而较小的数据文件会导致不必要的元数据量和更低效率的文件打开成本。

    SparkActions
        .get()
        .rewriteDataFiles(table)
        .filter(Expressions.equal("category", "a"))
        .option("target-file-size-bytes", 1024L.toString) // 1KB
        .execute()
    

5. 与 Flink SQL 集成

Apache Iceberg 同时支持 Apache Flink 的 DataStream API 和 Table API。

5.1 环境准备

5.1.1 安装 Flink

  1. Flink与Iceberg的版本对应关系如下

    Flink 版本Iceberg 版本
    1.110.9.0 – 0.12.1
    1.120.12.0 – 0.13.1
    1.130.13.0 – 1.0.0
    1.140.13.0 – 1.1.0
    1.150.14.0 – 1.1.0
    1.161.1.0 – 1.1.0
  2. 上传并解压Flink安装包

    tar -zxvf flink-1.16.0-bin-scala_2.12.tgz -C /opt/module/
    
  3. 配置环境变量

    sudo vim /etc/profile.d/my_env.sh
    
    export HADOOP_CLASSPATH = `hadoop classpath`
    
    source /etc/profile.d/my_env.sh
    
  4. 拷贝iceberg的jar包到Flink的lib目录

    cp /opt/software/iceberg/iceberg-flink-runtime-1.16-1.1.0.jar /opt/module/flink-1.16.0/lib
    

5.1.2 启动 Hadoop

(略)

5.1.3 启动 sql-client

  1. 修改 flink-conf.yaml 配置

    vim /opt/module/flink-1.16.0/conf/flink-conf.yaml
    
    classloader.check-leaked-classloader: false
    taskmanager.numberOfTaskSlots: 4
    state.backend: rocksdb
    execution.checkpointing.interval: 30000
    state.checkpoints.dir: hdfs://hadoop1:8020/ckps
    state.backend.incremental: true
    
  2. local模式

    1. 修改workers

      vim /opt/module/flink-1.16.0/conf/workers
      
      localhost
      localhost
      localhost
      

      在本地启动包含 3 个 TaskManager 的 local 集群

    2. 启动Flink

      /opt/module/flink-1.16.0/bin/start-cluster.sh
      

      查看webui:http://hadoop1:8081

    3. 启动Flink的sql-client

      /opt/module/flink-1.16.0/bin/sql-client.sh embedded
      

      image-20230815171608307

5.2 创建和使用 Catalog

5.2.1 语法说明

CREATE CATALOG <catalog_name> WITH (
    'type' = 'iceberg',
    '<config_key>' = '<config_value>'
);
  • type: 必须是 iceberg。(必须)

  • catalog-type:内置了 hivehadoop 两种 catalog,也可以使用 catalog-impl 来自定义 catalog。(可选)

  • catalog-impl:自定义 catalog 实现类的全限定类名。如果未设置 catalog-type,则必须设置该选项。(可选)

  • property-version:描述属性版本的版本号。此属性可用于向后兼容,以防属性格式更改。当前属性版本为1。(可选)

  • cache-enabled: 是否启用目录缓存,默认值为 true。(可选)

  • cache.expiration-interval-ms:本地缓存 catalog 条目的时间(以毫秒为单位);负值,如 -1 表示没有时间限制,不允许设为 0。默认值为 -1。(可选)

5.2.2 Hive Catalog

  1. 上传 hive connector 到 flink 的 lib 中

    cp flink-sql-connector-hive-3.1.2_2.12-1.16.0.jar /opt/module/flink-1.16.0/lib/
    
  2. 启动 hive metastore 服务

    hive --service metastore
    
  3. 创建 hive catalog
    重启 flink 集群,重新进入 sql-client

    CREATE CATALOG hive_catalog WITH (
        'type'='iceberg',
        'catalog-type'='hive',
        'uri'='thrift://hadoop1:9083',
        'clients'='5',
        'property-version'='1',
        'warehouse'='hdfs://hadoop1:8020/warehouse/iceberg-hive'
    );
    
    use catalog hive_catalog;
    
    • uri: Hive metastore 的 thrift uri。(必选)
    • clients:Hive metastore 客户端池大小,默认为 2。(可选)

    • warehouse: 数仓目录。

    • hive-conf-dir:包含 hive-site.xml 配置文件的目录路径,hive-site.xml 中 hive.metastore.warehouse.dir 的值会被 warehouse 覆盖。

    • hadoop-conf-dir:包含 core-site.xml 和 hdfs-site.xml 配置文件的目录路径。

5.2.3 Hadoop Catalog

Iceberg 还支持 HDFS 中基于目录的 catalog,可以使用 'catalog-type' = 'hadoop' 配置。

CREATE CATALOG hadoop_catalog WITH (
    'type'='iceberg',
    'catalog-type'='hadoop',
    'warehouse'='hdfs://hadoop1:8020/warehouse/iceberg-hadoop',
    'property-version'='1'
);

use catalog hadoop_catalog;
  • warehouse:存放元数据文件和数据文件的 HDFS 目录。(必需)

5.2.4 配置 sql-client 初始化文件

vim /opt/module/flink-1.16.0/conf/sql-client-init.sql
CREATE CATALOG hive_catalog WITH (
    'type'='iceberg',
    'catalog-type'='hive',
    'uri'='thrift://hadoop1:9083',
    'warehouse'='hdfs://hadoop1:8020/warehouse/iceberg-hive'
);

USE CATALOG hive_catalog;

后续启动 sql-client 时,加上 -i sql文件路径,即可完成 catalog 的初始化。

/opt/module/flink-1.16.0/bin/sql-client.sh embedded -i conf/sql-client-init.sql

5.3 DDL 语句

5.3.1 创建数据库

CREATE DATABASE iceberg_db;

USE iceberg_db;

5.3.2 创建表

CREATE TABLE `hive_catalog`.`default`.`sample` (
    id BIGINT COMMENT 'unique id',
    data STRING
);

建表命令现在支持最常用的 flink 建表语法,包括:

  • PARTITION BY (column1, column2, …):配置分区,apache flink 还不支持隐藏分区。

  • COMMENT ‘table document’:指定表的备注

  • WITH (‘key’=‘value’, …):设置表属性

目前,不支持计算列、watermark(支持主键)。

  1. 创建分区表

    CREATE TABLE `hive_catalog`.`default`.`sample` (
        id BIGINT COMMENT 'unique id',
        data STRING
    ) PARTITIONED BY (data);
    

    Apache Iceberg 支持隐藏分区,但 Apache flink 不支持在列上通过函数进行分区,现在无法在 flink DDL 中支持隐藏分区。

  2. 使用 LIKE 语法建表
    LIKE 语法用于创建一个与另一个表具有相同 schema、分区和属性的表。

    CREATE TABLE `hive_catalog`.`default`.`sample` (
        id BIGINT COMMENT 'unique id',
        data STRING
    );
    
    CREATE TABLE `hive_catalog`.`default`.`sample_like` LIKE `hive_catalog`.`default`.`sample`;
    

5.3.3 修改表

  1. 修改表属性

    ALTER TABLE `hive_catalog`.`default`.`sample` SET ('write.format.default'='avro');
    
  2. 修改表名

    ALTER TABLE `hive_catalog`.`default`.`sample` RENAME TO `hive_catalog`.`default`.`new_sample`;
    

5.3.4 删除表

DROP TABLE `hive_catalog`.`default`.`sample`;

5.4 插入语句

5.4.1 INSERT INTO

INSERT INTO `hive_catalog`.`default`.`sample` VALUES (1, 'a');

INSERT INTO `hive_catalog`.`default`.`sample` SELECT id, data from sample2;

5.4.2 INSERT OVERWRITE

仅支持 Flink 的 Batch 模式

SET execution.runtime-mode = batch;

INSERT OVERWRITE sample VALUES (1, 'a');

INSERT OVERWRITE `hive_catalog`.`default`.`sample` PARTITION(data='a') SELECT 6;

5.4.3 UPSERT

当将数据写入 v2 表格式时,Iceberg 支持基于主键的 UPSERT。有两种方法可以启用 upsert。

  1. 建表时指定

    CREATE TABLE `hive_catalog`.`test1`.`sample5` (
        `id` INT UNIQUE COMMENT 'unique id',
        `data` STRING NOT NULL,
        PRIMARY KEY(`id`) NOT ENFORCED
    ) with (
        'format-version'='2',
        'write.upsert.enabled'='true'
    );
    
  2. 插入时指定

    INSERT INTO tableName /*+ OPTIONS('upsert-enabled'='true') */
    
    ...
    

    插入的表,format-version 需要为 2。
    OVERWRITEUPSERT 不能同时设置。在 UPSERT 模式下,如果对表进行分区,则分区字段必须也是主键。

  3. 读取 Kafka 流,upsert 插入到 iceberg 表中

    create table default_catalog.default_database.kafka(
        id int,
        data string
    ) with (
        'connector' = 'kafka'
        ,'topic' = 'test111'
        ,'properties.zookeeper.connect' = 'hadoop1:2181'
        ,'properties.bootstrap.servers' = 'hadoop1:9092'
        ,'format' = 'json'
        ,'properties.group.id'='iceberg'
        ,'scan.startup.mode'='earliest-offset'
    );
    
    INSERT INTO hive_catalog.test1.sample5 SELECT * FROM default_catalog.default_database.kafka;
    

5.5 查询语句

Iceberg 支持 Flink 的流式和批量读取。

5.5.1 Batch 模式

SET execution.runtime-mode = batch;

select * from sample;

5.5.2 Streaming 模式

SET execution.runtime-mode = streaming;

SET table.dynamic-table-options.enabled=true;

SET sql-client.execution.result-mode=tableau;
  1. 从当前快照读取所有记录,然后从该快照读取增量数据

    SELECT * FROM sample5 /*+ OPTIONS('streaming'='true', 'monitor-interval'='1s')*/ ;
    
  2. 读取指定快照 id(不包含)后的增量数据

    SELECT * FROM sample /*+ OPTIONS(
        'streaming'='true',
        'monitor-interval'='1s',
        'start-snapshot-id'='3821550127947089987'
    )*/ ;
    
    • monitor-interval: 连续监控新提交数据文件的时间间隔(默认为 10s)。

    • start-snapshot-id: 流作业开始的快照 id。

**注意:**如果是无界数据流式 upsert 进 iceberg 表(读 kafka,upsert 进 iceberg 表),那么再去流读 iceberg 表会存在读不出数据的问题。如果无界数据流式 append 进 iceberg 表(读 kafka,append 进 iceberg 表),那么流读该 iceberg 表可以正常看到结果。

5.6 与Flink集成的不足

支持的特性Flink备注
SQL create catalog
SQL create database
SQL create table
SQL create table like
SQL alter table只支持修改表属性,不支持更改列和分区
SQL drop_table
SQL select支持流式和批处理模式
SQL insert into支持流式和批处理模式
SQL insert overwrite
DataStream read
DataStream append
DataStream overwrite
Metadata tables支持 Java API,不支持 Flink SQL
Rewrite files action
  • 不支持创建隐藏分区的 Iceberg 表。

  • 不支持创建带有计算列的 Iceberg 表。

  • 不支持创建带 watermark 的 Iceberg 表。

  • 不支持添加列,删除列,重命名列,更改列。

  • Iceberg 目前不支持 Flink SQL 查询表的元数据信息,需要使用 Java API 实现。

6. 与 Flink DataStream 集成

6.1 环境准备

6.1.1 配置pom文件

新建 Maven工 程,pom 文件配置如下:

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.atguigu.iceberg</groupId>
    <artifactId>flink-iceberg-demo</artifactId>
    <version>1.0-SNAPSHOT</version>


    <properties>
        <maven.compiler.source>8</maven.compiler.source>
        <maven.compiler.target>8</maven.compiler.target>
        <flink.version>1.16.0</flink.version>
        <java.version>1.8</java.version>
        <scala.binary.version>2.12</scala.binary.version>
        <slf4j.version>1.7.30</slf4j.version>
    </properties>

    <dependencies>

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-java</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>   <!--不会打包到依赖中,只参与编译,不参与运行 -->
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-java</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-clients</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>

        <!-- https://mvnrepository.com/artifact/org.apache.flink/flink-table-planner -->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-planner_${scala.binary.version}</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-files</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>

        <!--idea运行时也有webui-->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-runtime-web</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>

        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-api</artifactId>
            <version>${slf4j.version}</version>
            <scope>provided</scope>
        </dependency>
        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-log4j12</artifactId>
            <version>${slf4j.version}</version>
            <scope>provided</scope>
        </dependency>
        <dependency>
            <groupId>org.apache.logging.log4j</groupId>
            <artifactId>log4j-to-slf4j</artifactId>
            <version>2.14.0</version>
            <scope>provided</scope>
        </dependency>


        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-statebackend-rocksdb</artifactId>
            <version>${flink.version}</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>3.1.3</version>
            <scope>provided</scope>
        </dependency>

        <!-- https://mvnrepository.com/artifact/org.apache.iceberg/iceberg-flink-runtime-1.16 -->
        <dependency>
            <groupId>org.apache.iceberg</groupId>
            <artifactId>iceberg-flink-runtime-1.16</artifactId>
            <version>1.1.0</version>
        </dependency>

    </dependencies>


    <build>
        <plugins>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-shade-plugin</artifactId>
                <version>3.2.4</version>
                <executions>
                    <execution>
                        <phase>package</phase>
                        <goals>
                            <goal>shade</goal>
                        </goals>
                        <configuration>
                            <artifactSet>
                                <excludes>
                                    <exclude>com.google.code.findbugs:jsr305</exclude>
                                    <exclude>org.slf4j:*</exclude>
                                    <exclude>log4j:*</exclude>
                                    <exclude>org.apache.hadoop:*</exclude>
                                </excludes>
                            </artifactSet>
                            <filters>
                                <filter>
                                    <!-- Do not copy the signatures in the META-INF folder.
                                    Otherwise, this might cause SecurityExceptions when using the JAR. -->
                                    <artifact>*:*</artifact>
                                    <excludes>
                                        <exclude>META-INF/*.SF</exclude>
                                        <exclude>META-INF/*.DSA</exclude>
                                        <exclude>META-INF/*.RSA</exclude>
                                    </excludes>
                                </filter>
                            </filters>
                            <transformers combine.children="append">
                                <transformer
                                        implementation="org.apache.maven.plugins.shade.resource.ServicesResourceTransformer">
                                </transformer>
                            </transformers>
                        </configuration>
                    </execution>
                </executions>
            </plugin>
        </plugins>
    </build>


</project>

6.1.2 配置log4j

resources 目录下新建 log4j.properties。

log4j.rootLogger=error,stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.target=System.out
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n

6.2 读取数据

6.2.1 常规 Source 写法

  1. Batch 方式

    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    TableLoader tableLoader = TableLoader.fromHadoopTable("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a");
    DataStream<RowData> batch = FlinkSource.forRowData()
         .env(env)
         .tableLoader(tableLoader)
         .streaming(false)
         .build();
    
    batch.map(r -> Tuple2.of(r.getLong(0),r.getLong(1) ))
          .returns(Types.TUPLE(Types.LONG,Types.LONG))
          .print();
    
    env.execute("Test Iceberg Read");
    
  2. Streaming 方式

    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    TableLoader tableLoader = TableLoader.fromHadoopTable("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a"); 
    DataStream<RowData> stream = FlinkSource.forRowData()
         .env(env)
         .tableLoader(tableLoader)
         .streaming(true)
         .startSnapshotId(3821550127947089987L)
         .build();
    
    stream.map(r -> Tuple2.of(r.getLong(0),r.getLong(1) ))
          .returns(Types.TUPLE(Types.LONG,Types.LONG))
          .print();
    
    env.execute("Test Iceberg Read");
    

6.2.2 FLIP-27 Source写法

  1. Batch 方式

    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    TableLoader tableLoader = TableLoader.fromHadoopTable("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a");
    
    IcebergSource<RowData> source1 = IcebergSource.forRowData()
            .tableLoader(tableLoader)
            .assignerFactory(new SimpleSplitAssignerFactory())
            .build();
    
    DataStream<RowData> batch = env.fromSource(
            Source1,
            WatermarkStrategy.noWatermarks(),
            "My Iceberg Source",
            TypeInformation.of(RowData.class));
    
    batch.map(r -> Tuple2.of(r.getLong(0), r.getLong(1)))
            .returns(Types.TUPLE(Types.LONG, Types.LONG))
            .print();
    
    env.execute("Test Iceberg Read");
    
  2. Streaming 方式

    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    TableLoader tableLoader = TableLoader.fromHadoopTable("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a");
    
    IcebergSource source2 = IcebergSource.forRowData()
            .tableLoader(tableLoader)
            .assignerFactory(new SimpleSplitAssignerFactory())
            .streaming(true)
            .streamingStartingStrategy(StreamingStartingStrategy.INCREMENTAL_FROM_LATEST_SNAPSHOT)
            .monitorInterval(Duration.ofSeconds(60))
            .build();
    
    DataStream<RowData> stream = env.fromSource(
            Source2,
            WatermarkStrategy.noWatermarks(),
            "My Iceberg Source",
            TypeInformation.of(RowData.class));
    
    stream.map(r -> Tuple2.of(r.getLong(0), r.getLong(1)))
            .returns(Types.TUPLE(Types.LONG, Types.LONG))
            .print();
    
    env.execute("Test Iceberg Read");
    

6.3 写入数据

目前支持 DataStream 和 DataStream 格式的数据流写入 Iceberg 表。

  1. 写入方式支持 append、overwrite、upsert

    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    env.setParallelism(1);
    
    SingleOutputStreamOperator<RowData> input = env.fromElements("")
            .map(new MapFunction<String, RowData>() {
                @Override
                public RowData map(String s) throws Exception {
                    GenericRowData genericRowData = new GenericRowData(2);
                    genericRowData.setField(0, 99L);
                    genericRowData.setField(1, 99L);
    
                    return genericRowData;
                }
            });
    
    TableLoader tableLoader = TableLoader.fromHadoopTable("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a");
    
    FlinkSink.forRowData(input)
    .tableLoader(tableLoader)
    .append()            // append方式
    //.overwrite(true)   // overwrite方式
    //.upsert(true)       // upsert方式
                ;
    
    env.execute("Test Iceberg DataStream");
    
  2. 写入选项

    FlinkSink.forRowData(input)
        .tableLoader(tableLoader)
        .set("write-format", "orc")
        .set(FlinkWriteOptions.OVERWRITE_MODE, "true");
    

    可配置选项如下:

    选项默认值说明
    write-formatParquet,同 write.format.default写入操作使用的文件格式:Parquet, avro 或 orc
    target-file-size-bytes536870912(512MB,同 write.target-file-size-bytes控制生成的文件的大小,目标大约为这么多字节
    upsert-enabledwrite.upsert.enabled
    overwrite-enabledfalse覆盖表的数据,不能和 UPSERT 模式同时开启
    distribution-modeNone,同 write.distribution-mode定义写数据的分布方式:
    none:不打乱行;
    hash:按分区键散列分布;
    range:如果表有 SortOrder,则通过分区键或排序键分配
    compression-codecwrite.(fileformat).compression-codec
    compression-levelwrite.(fileformat).compression-level
    compression-strategywrite.orc.compression-strategy

6.4 合并小文件

Iceberg 现在不支持在 flink sql 中检查表,需要使用 Iceberg 提供的 Java API 来读取元数据来获得表信息。可以通过提交 Flink 批处理作业将小文件重写为大文件:

import org.apache.iceberg.flink.actions.Actions;

// 1.获取 Table对象
// 1.1 创建 catalog对象
Configuration conf = new Configuration();
HadoopCatalog hadoopCatalog = new HadoopCatalog(conf, "hdfs://hadoop1:8020/warehouse/spark-iceberg");

// 1.2 通过 catalog加载 Table对象
Table table = hadoopCatalog.loadTable(TableIdentifier.of("default", "a"));

// 有Table对象,就可以获取元数据、进行维护表的操作
//        System.out.println(table.history());
//        System.out.println(table.expireSnapshots().expireOlderThan());

// 2.通过 Actions 来操作 合并
Actions.forTable(table)
        .rewriteDataFiles()
        .targetSizeInBytes(1024L)
        .execute();

得到Table对象,就可以获取元数据、进行维护表的操作。更多 Iceberg 提供的 API 操作,参考:https://iceberg.apache.org/docs/latest/api/

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/882476.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【算法题】螺旋矩阵IV (求解n阶折线蛇形矩阵)

一、问题的提出 n阶折线蛇形矩阵的特点是按照图1所示的方式排列元素。n阶蛇形矩阵是指矩阵的大小为nn&#xff0c;其中n为正整数。 题目背景 一个 n 行 n 列的螺旋矩阵可由如图1所示的方法生成&#xff0c;观察图片&#xff0c;找出填数规律。填数规则为从 1 开始填到 nn。 …

如何使用AIGC人工智能辅助开发?

文章目录 引言AIGC辅助开发的应用场景代码生成图像识别与生成自然语言处理视频剪辑与生成 AIGC辅助开发的实现步骤数据准备模型选择模型训练结果评估与优化应用开发 AIGC辅助开发的优势与局限优势局限 未来展望总结 &#x1f389;欢迎来到AIGC人工智能专栏~如何使用AIGC人工智能…

计算机网络----CRC冗余码的运算

目录 1. 冗余码的介绍及原理2. CRC检验编码的例子3. 小练习 1. 冗余码的介绍及原理 冗余码是用于在数据链路层的通信链路和传输数据过程中可能会出错的一种检错编码方法&#xff08;检错码&#xff09;。原理&#xff1a;发送发把数据划分为组&#xff0c;设每组K个比特&#…

【Python】解决“Tk_GetPixmap: Error from CreateDIBSection”闪退问题

解决Python使用Tkinter的Notebook切换标签时出现的“Tk_GetPixmap: Error from CreateDIBSection 操作成功完成”闪退问题 零、问题描述 在使用Tkinter的Notebook控件时&#xff0c;对其标签进行切换&#xff0c;发现切换不了&#xff0c;一切换就报如下图错误&#xff1a; …

Python学习笔记_基础篇(五)_数据类型之字典

一.基本数据类型 整数&#xff1a;int 字符串&#xff1a;str(注&#xff1a;\t等于一个tab键) 布尔值&#xff1a; bool 列表&#xff1a;list 列表用[] 元祖&#xff1a;tuple 元祖用&#xff08;&#xff09; 字典&#xff1a;dict 注&#xff1a;所有的数据类型都存在想对…

3. 爬取自己CSDN博客列表(分页查询)(网站反爬虫策略,需要在代码中添加合适的请求头User-Agent,否则response返回空)

文章目录 步骤打开谷歌浏览器输入网址按F12进入调试界面点击网络&#xff0c;清除历史消息按F5刷新页面找到接口&#xff08;community/home-api/v1/get-business-list&#xff09;接口解读 撰写代码获取博客列表先明确返回信息格式json字段解读 Apipost测试接口编写python代码…

每天一道leetcode:646. 最长数对链(动态规划中等)

今日份题目&#xff1a; 给你一个由 n 个数对组成的数对数组 pairs &#xff0c;其中 pairs[i] [lefti, righti] 且 lefti < righti 。 现在&#xff0c;我们定义一种 跟随 关系&#xff0c;当且仅当 b < c 时&#xff0c;数对 p2 [c, d] 才可以跟在 p1 [a, b] 后面…

JMeter 特殊组件-逻辑控制器与BeanShell PreProcessor 使用示例

文章目录 前言JMeter 特殊组件-逻辑控制器与BeanShell PreProcessor 使用示例1. 逻辑控制器使用1.1. While Controller 使用示例1.2. 如果&#xff08;If&#xff09;控制器 使用示例 2. BeanShell PreProcessor 使用示例 前言 如果您觉得有用的话&#xff0c;记得给博主点个赞…

视频云存储平台EasyCVR视频汇聚接入AI算法接口,如何在检测中对视频流画框?

视频集中存储EasyCVR安防监控视频汇聚平台基于云边端智能协同架构&#xff0c;具有强大的数据接入、处理及分发能力&#xff0c;平台可支持多协议接入&#xff0c;包括市场主流标准协议与厂家私有协议及SDK&#xff0c;如&#xff1a;国标GB28181、RTMP、RTSP/Onvif、海康Ehome…

Matlab中图例的位置(图例放在图的上方、下方、左方、右方、图外面)等

一、图例默认位置 默认的位置在NorthEast r 10; a 0; b 0; t0:0.1:2.1*pi; xar*cos(t); ybr*sin(t); A1plot(x,y,r,linewidth,4);%圆 hold on axis equal A2plot([0 0],[1 10],b,linewidth,4);%直线 legend([A1,A2],圆形,line)二、通过Location对legend的位置进行改变 变…

国标GB28181视频平台EasyGBS国标视频平台接入大量通道,创建角色未响应的问题解决方案

国标GB28181协议视频平台EasyGBS是基于国标GB28181协议的视频云服务平台&#xff0c;支持多路设备同时接入&#xff0c;并对多平台、多终端分发出RTSP、RTMP、FLV、HLS、WebRTC等格式的视频流。平台可提供视频监控直播、云端录像、云存储、检索回放、智能告警、语音对讲、平台级…

生成IOS app专用密码教程

转载&#xff1a;生成IOS app专用密码教程 APP专用密码app-specific password是专门用于上传ipa文件的一种密码&#xff0c;是一种苹果的安全机制&#xff01; 现在苹果开发者账号开启了双重认证&#xff0c;提交ipa文件时候都需要这个密码&#xff01; 一.注册AppID账号 1…

Linux 路由三大件

对于 Linux 网络&#xff0c;好奇心强的同学一定思考过两个问题&#xff1a; 当我们发出一个包的时候&#xff0c;Linux 是如何决策该从哪个网卡&#xff08;假设有多个网卡&#xff09;、哪个下一跳发出这个包&#xff0c;用什么 IP 作为 source......当 Linux 收到一个包时&a…

云服务 Ubuntu 20.04 版本 使用 Nginx 部署静态网页

所需操作&#xff1a; 1.安装Nginx 2.修改配置文件 3.测试、重启 Nginx 4.内部修改防火墙 5.配置解析 6.测试是否部署成功 1.安装Nginx // 未使用 root 账号 apt-get update // 更新apt-get install nginx // 安装 nginx 1.1.测试是否安装没问题 在网页上输入云服务的公网…

链表之第一回

欢迎来到我的&#xff1a;世界 收录专栏&#xff1a;链表 希望作者的文章对你有所帮助&#xff0c;有不足的地方还请指正&#xff0c;大家一起学习交流 ! 目录 前言第一题&#xff1a;删除链表的倒数第n个节点第二题&#xff1a;链表的中间结点第三题&#xff1a;合并两个排序…

Apache Dubbo 云原生可观测性的探索与实践

作者&#xff1a;宋小生 - 平安壹钱包中间件资深工程师 Dubbo3 可观测能力速览 Apache Dubbo3 在云原生可观测性方面完成重磅升级&#xff0c;使用 Dubbo3 最新版本&#xff0c;你只需要引入 dubbo-spring-boot-observability-starter 依赖&#xff0c;微服务集群即原生具备以…

Gradio部署应用到服务器不能正常访问

用Gradio部署一个基于ChatGLM-6B的应用&#xff0c;发布到团队的服务器上&#xff08;局域网&#xff0c;公网不能访问&#xff09;&#xff0c;我将gradio应用发布到服务器的9001端口 import gradio as gr with gr.Blocks() as demo:......demo.queue().launch(server_port90…

视频集中存储安防监控平台EasyCVR优化AI硬件接入时的通道显示异常问题

安防视频监控平台视频集中存储EasyCVR可拓展性强、视频能力灵活、部署轻快&#xff0c;可支持的主流标准协议有国标GB28181、RTSP/Onvif、RTMP等&#xff0c;以及支持厂家私有协议与SDK接入&#xff0c;包括海康Ehome、海大宇等设备的SDK等。 安防监控视频云存储平台EasyCVR既具…

NPCon2023 AI模型技术与应用峰会:参后感

8月12日&#xff0c;参加了在北京皇家格兰云天大酒店召开的“全链路搭建人工智能研发基础”会议。此次会议汇集了众多人工智能领域的顶尖技术专家&#xff0c;他们就人工智能基础设施、计算能力资源以及模型训练等核心议题展开了深入的研讨。 1.主题以及收获 主题1.由千芯科技…

网络编程555

上传代码 #include <stdio.h>//客户端 #include <string.h> #include <stdlib.h> #include<sys/types.h> #include<sys/socket.h> #include<arpa/inet.h> #include<head.h> #define PORT 69 #define IP "192.168.124.57"…