【性能优化】表分区实践最佳案例

news2024/11/26 16:54:42

背景

随着数字化建设的持续深入,企业的业务规模迎来了高速发展,其数据规模也呈现爆炸式增长,如果继续使用传统解决方案,将所有数据存储在一个表中,对数据的查询和维护效率将是一个巨大的挑战,在这个背景下,表分区技术应运而生。

分区的其核心思想是将数据按照某个特定的标准分成多个物理块,每个物理块即为一个分区,从而使数据的存储和管理更加高效,可帮助我们我们实现稳定的存储增长、高性能和易维护。

优势

  • 提升查询性能: 通过将数据分成多个分区,查询只需要访问特定分区的数据,避免扫描全表,减少磁盘I/O,从而加速查询操作,降低响应时间。
  • 提升运维便利: 分区使得数据维护操作更加精确,例如我们按年分区,要删除指定年份的数据,无需使用性能开销极大的 DELETE FROM … WHERE year=2001,而是直接使用 DROP TABLE table_partition_2001来快速删除分区数据(几乎无开销)。
  • 提升可用性和扩展性:表分区允许根据业务需求进行定制,例如按时间、业务部门等进行分区,单个分区出现故障,其他分区数据仍可用,且修复成本更低;同时避免单表的无限增长而导致性能下降,为系统的可扩展性提供了更好的基础。

何时分区

在决定是否对表进行分区时,需要综合考虑以下几个因素,以确保分区对系统性能和数据管理带来实际的好处:

  • 查询模式相对固定:例如经常按业务部门查询,可将其作为分区键以最大限度地减少查询所需扫描的数据规模,例如对超大数据量的表(如 500 GB 以上,非绝对标准)收益较为明显,可明显地降低查询耗时,提升查询效率。
  • 数据按时间有序:例如日志数据,使用时间作为分区键可以使查询按时间范围过滤更加高效,同时方便对访问量极低的旧数据进行管理和归档。

设计表分区策略

设计适当的表分区策略是确保分区表性能最大化的关键一步,以下是一些步骤和考虑因素,可帮助您制定有效的分区策略:

  • 分析查询需求:分析查询需求,重点关注经常被查询的数据的过滤条件,以选择适当的分区键,使得满足这些过滤条件的数据能够集中在同一分区中,从而优化查询性能。
  • 确认数据类型:推荐使用 STRING 或时间类型的列作为分区键,通常可以帮助在数据均衡和分区数量上取得较好的平衡。
  • 权衡分区规模:常规情况下,单个分区的数据量控制在 500GB 内,如果集群的 CPU 核数较多,可适当提升,此外,我们还需要关注数据的增长趋势,例如数据按时间增长,时间则是一个优秀的分区键,查询按时间范围过滤时会更高效。
  • 选择分区策略:ArgoDB 支持范围分区和单值分区:

image.png

分区类型说明
范围分区按照分区键的值范围来划分分区,执行分区时可基于列值分布均衡度和查询需求来自由划分范围,可避免分区间的数据规模差距过大,提升查询效率。
单值分区将拥有相同分区键值的记录划分在同一分区中,适用于列基数较少(例如城市名)且分布较为均衡的场景。

最佳实践

创建分区表

本案例中,我们以 TPC-DS 样例数据集为例,演示在搭建销售数据分析的数据仓库过程中,遇到的数据分区需求和具体流程。目前,我们的事实表 store_sales 的规模已经增长到了约 2.88 亿条数据(约 20 GB)且持续增长中,日常的报表分析会使用销售日期来作为过滤条件进行,我们希望优化按销售日期范围查询的性能,简化后的 ER 图如下:

image.png

操作流程

1. 选择分区键。

基于前面的介绍和场景需求,我们优先选择与时间关联的列作为分区键,而通过上面简化的 ER 图可以得知,store_sales 表虽然没有直接存储时间信息,但是通过外键(ss_sold_date_sk)关联到名为 date_dim 维度表的 d_date_sk 列,所以初步选择 ss_sold_date_sk 作为分区键。

2. 了解分区键的数据特性。

初步选择分区键后,我们还需要关注分区键 ss_sold_date_sk 的数据分布情况,为后续的分区设置提供参考,例如通过下述语句,查看 ss_sold_date_sk 列值中,排名前 5 个和倒数 5 个的数据占比辅助判断数据分布情况。


WITH partition_percentages AS (
   SELECT ss_sold_date_sk, COUNT(*) * 100.0 / SUM(COUNT(*)) OVER() AS percentage
   FROM store_sales
   GROUP BY ss_sold_date_sk
)
SELECT ss_sold_date_sk, percentage, 'top' AS distribution_type
FROM partition_percentages
ORDER BY percentage DESC
LIMIT 5
UNION ALL
SELECT ss_sold_date_sk, percentage, 'bottom' AS distribution_type
FROM partition_percentages
ORDER BY percentage ASC
LIMIT 5;

输出结果如下,可以看到数据在时间分布上相对均衡,只有一个特殊 NULL 值占比约 4.5%,那么我们在分区时基本可以依据自然时间(如月份或季度)来划分,如果某些时间点对应的数据非常多,可在分区时适当调整其对应的分区范围。

image.png

除上述方法外,您还可以通过数据采样、标准差、直方图等方法来辅助判断数据分布的均衡情况。

3. 选择分区策略和分区规模。

i. 首先,我们查询候选的分区键(ss_sold_date_sk)的去重数来判断是否适用于单值分区。

SELECT COUNT(DISTINCT ss_sold_date_sk) AS distinct_count FROM store_sales;

返回结果为 1823,该列的基数较大,如果选择单值分区会导致数据过于分散,所以此处我们选择分区策略为范围分区。

ii. 接下来,我们关联查询事实表 store_sales 和维度表 date_dim,查看候选的分区键的值范围,即日期分布范围。

SELECT MIN(d.d_date) AS min_date, MAX(d.d_date) AS max_date
FROM store_sales s
JOIN date_dim d ON s.ss_sold_date_sk = d.d_date_sk;

输出结果如下,日期跨度为 5 年。

image.png

iii. 权衡并确认分区规模。

通过前面的分析,我们的查询通常是按照季度或月度数据来分析并输出报表,结合我们前面掌握候选的分区键的数据分布情况,同时考虑到分区数量不宜过多以避免维护的复杂性和额外的负载,权衡分区数和各分区预计包含的数据规模后,最终确定按照季度来划分数据:

数据的时间跨度为 5 年,按照季度划分则预计会创建 20 个分区,每个分区包含约 1400 万条(约 1 GB)的数据。

4. 通过 Beeline 登录至 ArgoDB 数据库,执行表分区操作。

注意:关于如何通过 Beeline 登录数据库,请参考Inceptor/ArgoDB如何连接数据库。

i. 由于 store_sales 表的 ss_sold_date_sk 存储的不是具体时间,我们先通过下述语句找出各分区对应的键值。

-- 创建分区时采用 VALUES LESS THAN 语法,所以开始时间为数据范围内的第二季度第一天,即 1998-04-01

SELECT DISTINCT YEAR(d.d_date) AS year,
               QUARTER(d.d_date) AS quarter,
               MIN(s.ss_sold_date_sk) AS min_ss_sold_date_sk
FROM store_sales s
JOIN date_dim d ON s.ss_sold_date_sk = d.d_date_sk
WHERE d.d_date BETWEEN '1998-04-01' AND '2003-01-02'
GROUP BY year, quarter
ORDER BY year, quarter;

输出结果如下:

image.png

ii. 确定分区键值后,执行下述命令创建分区表,详细语法可参考开发者指南中的定义分区章节。

CREATE TABLE store_sales_partition(
        ss_sold_time_sk INTEGER ,
        ss_item_sk INTEGER NOT NULL,
        ss_customer_sk INTEGER ,
        ss_cdemo_sk INTEGER ,
        ss_hdemo_sk INTEGER ,
        ss_addr_sk INTEGER ,
        ss_store_sk INTEGER ,
        ss_promo_sk INTEGER ,
        ss_ticket_number BIGINT NOT NULL,
        ss_quantity INTEGER ,
        ss_wholesale_cost FLOAT ,
        ss_list_price FLOAT ,
        ss_sales_price FLOAT ,
        ss_ext_discount_amt FLOAT ,
        ss_ext_sales_price FLOAT ,
        ss_ext_wholesale_cost FLOAT ,
        ss_ext_list_price FLOAT ,
        ss_ext_tax FLOAT ,
        ss_coupon_amt FLOAT ,
        ss_net_paid FLOAT ,]
        ss_net_paid_inc_tax FLOAT ,
        ss_net_profit FLOAT )
PARTITIONED BY RANGE(ss_sold_date_sk INTEGER) (
        PARTITION p1998q1 VALUES LESS THAN (2450905),
        PARTITION p1998q2 VALUES LESS THAN (2450996),
        PARTITION p1998q3 VALUES LESS THAN (2451088),
        PARTITION p1998q4 VALUES LESS THAN (2451180),
        PARTITION p1999q1 VALUES LESS THAN (2451270),
        PARTITION p1999q2 VALUES LESS THAN (2451361),
        PARTITION p1999q3 VALUES LESS THAN (2451453),
        PARTITION p1999q4 VALUES LESS THAN (2451545),
        PARTITION p2000q1 VALUES LESS THAN (2451636),
        PARTITION p2000q2 VALUES LESS THAN (2451727),
        PARTITION p2000q3 VALUES LESS THAN (2451819),
        PARTITION p2000q4 VALUES LESS THAN (2451911),
        PARTITION p2001q1 VALUES LESS THAN (2452001),
        PARTITION p2001q2 VALUES LESS THAN (2452092),
        PARTITION p2001q3 VALUES LESS THAN (2452184),
        PARTITION p2001q4 VALUES LESS THAN (2452276),
        PARTITION p2002q1 VALUES LESS THAN (2452366),
        PARTITION p2002q2 VALUES LESS THAN (2452457),
        PARTITION p2002q3 VALUES LESS THAN (2452549),
        PARTITION p2002q4 VALUES LESS THAN (2452641),
        PARTITION pmax VALUES LESS THAN (MAXVALUE))
STORED AS HOLODESK
WITH PERFORMANCE;

5. 在业务低峰期执行下述命令,将 TXT 格式的外表数据写入至刚刚创建的分区表中。

-- 开启数据动态写入,即写入时基于分区键的值自动将数据放置到对应分区中
set hive.exec.dynamic.partition=true;
set stargate.dynamic.partition.enabled=true;

-- 执行数据写入操作
INSERT INTO store_sales_partition
PARTITION (ss_sold_date_sk)
SELECT
   ss_sold_time_sk,
   ss_item_sk,
   ss_customer_sk,
   ss_cdemo_sk,
   ss_hdemo_sk,
   ss_addr_sk,
   ss_store_sk,
   ss_promo_sk,
   ss_ticket_number,
   ss_quantity,
   ss_wholesale_cost,
   ss_list_price,
   ss_sales_price,
   ss_ext_discount_amt,
   ss_ext_sales_price,
   ss_ext_wholesale_cost,
   ss_ext_list_price,
   ss_ext_tax,
   ss_coupon_amt,
   ss_net_paid,
   ss_net_paid_inc_tax,
   ss_net_profit,
   ss_sold_date_sk
FROM tpcds_text_100.store_sales;

注意:执行时间由集群负载、数据规模等因素共同决定,您可以登录 DBA Service,在查询页面中查看任务执行进度。

image.png

6. (可选)数据导入执行完成后,通过 SELECT COUNT(*) FROM store_sales_partition 来确认数据条目数与原表一致。

性能对比

接下来,我们选择一个典型的查询场景,即查询特定季度的销售数据并计算净利润,并使用分区前后的情况来进行对比,以展示分区对于查询性能的影响。

注:为更好地展示分区前后的性能对比,本案例使用的机器资源存在一定限制,因此查询响应时间仅供演示参考,真实业务场景中分区前的查询效率和速度会更高。

分区前

在分区之前,我们将数据存储在单一的大表 store_sales 中,假设我们查询 1999 年第一季度的净利润,查询 SQL 如下:


SELECT SUM(ss_net_profit) AS net_profit_1999q1
FROM store_sales
WHERE ss_sold_date_sk >= (             -- 通过子查询获取开始时间对应的 ss_sold_date_sk
   SELECT MIN(d_date_sk)
   FROM date_dim
   WHERE d_year = 1999 AND d_qoy = 1
)
AND ss_sold_date_sk < (                -- 通过子查询获取结束时间对应的 ss_sold_date_sk
   SELECT MIN(d_date_sk)
   FROM date_dim
   WHERE d_year = 1999 AND d_qoy = 2
);

等待查询执行完成,命令行将返回查询结果和耗时,具体如下:

image.png

本次查询耗时约为 28.5 秒,为了进一步了解查询任务在任务执行的各阶段的耗时情况,我们登录到 DBA Service 平台,在查询页面找到并单击刚刚执行完成的查询作业,然后单击调度阶段页签,可以看到该查询任务被分为 4 个调度阶段,时间主要花费在了 ID 为 1679 的调度阶段上,原因是它为了取出满足 WHERE 条件的数据,执行了全表扫描,即扫描行数为 287997024(约 2.87 亿)。

image.png

分区后

而在执行表分区后,我们使用分区表 store_sales_partition 执行相同的查询,本次查询只扫描了 16200992(约 1600 万)条记录,整体仅耗时为 6.9 秒,相较于之前查询速度提升了 4 倍以上

image.png

单击库表信息页签,可以看到本次查询的扫描分区数、列数和索引数等信息。

image.png

通过比较分区前后的查询性能,我们可以得出以下结论:

  • 分区后的查询性能更优:由于分区表的优化,查询性能得到了显著提升。
  • 分区使得查询范围更精确:分区键的使用使得查询范围更加精确,避免了不必要的数据扫描,从而提高了查询效率。

通过以上的性能对比,我们可以看到分区表的优势,特别是在处理大量数据和复杂查询时,分区能够显著提升查询性能和响应时间。这也强调了在数据模型设计和查询优化中合理使用分区的重要性。

维护分区表

对数据表执行分区操作,不仅可以更好地服务于查询,还可以帮助您更有效地维护历史数据,保障查询性能、数据管理和存储效率的持续优化。

  • 性能保持:随着时间的推移,分区表可以保持查询性能的稳定。由于数据被分割成多个分区,查询通常只需要扫描特定分区,而不是整个表,从而提高了查询性能。
  • 数据管理:分区表使得数据管理更加灵活。您可以轻松地添加、删除或迁移分区,而不会影响整个表。这对于数据归档、数据清理以及数据的日常维护非常有用。
  • 节省存储:通过仅加载和保留必要的分区,避免不必要的数据持续占用存储资源。

接下来,我们通过几个案例演示如何维护分区数据:

删除旧分区

如果某些数据已经不再需要,您可以轻松地删除旧的分区,释放存储空间,且此操作相较于原先基于条件过滤数据并删除,其开销极低,示例如下:

ALTER TABLE store_sales_partition
DROP PARTITION p2000q1;

添加新分区

假设您的分区表按季度分区,现在要添加一个新的季度分区,例如第四季度,随后您可以将新的数据加载至该分区:

ALTER TABLE store_sales_partition_noncluster
ADD PARTITION p2003q4 VALUES LESS THAN (2452733);

提示:如果您在创建分区表时设置了 MAXVALUE 分区,我们需要先将 MAXVALUE 对应的分区删除才可以继续创建新分区。更多关于分区的的操作,请参考开发者指南中定义分区章节。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1849018.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

深入解析MVC架构(Model-View-Controller Architecture)

目录 前言1. MVC架构概述1.1 模型&#xff08;Model&#xff09;1.1.1 数据管理1.1.2 业务逻辑 1.2 视图&#xff08;View&#xff09;1.2.1 数据展示1.2.2 用户界面设计 1.3 控制器&#xff08;Controller&#xff09;1.3.1 用户输入处理1.3.2 更新模型和视图 2. MVC架构的优缺…

区块链技术:金融市场监管的新篇章

一、引言 随着金融科技的迅猛发展&#xff0c;区块链技术作为其中的佼佼者&#xff0c;正逐渐改变着金融市场的格局。在金融市场监管领域&#xff0c;区块链技术以其独特的优势&#xff0c;为监管机构提供了新的监管思路和手段。本文将深入探讨区块链技术在金融市场监管中的作用…

了解Spring的BeanPostProcessor

了解Spring的BeanPostProcessor Spring框架提供了一种机制&#xff0c;允许在Spring容器实例化Bean之前和之后进行自定义的修改。这个机制就是BeanPostProcessor接口。BeanPostProcessor是Spring的核心接口之一&#xff0c;用于在Spring容器创建和初始化Bean的过程中进行干预和…

深度揭秘:深度学习框架下的神经网络架构进化

深度学习框架下的神经网络架构经历了从基础到复杂的显著进化&#xff0c;这一进程不仅推动了人工智能领域的突破性进展&#xff0c;还极大地影响了诸多行业应用。本文旨在深入浅出地揭示这一进化历程&#xff0c;探讨关键架构的创新点及其对现实世界的影响。 引言&#xff1a;…

在 KubeSphere 上快速安装和使用 KDP 云原生数据平台

作者简介&#xff1a;金津&#xff0c;智领云高级研发经理&#xff0c;华中科技大学计算机系硕士。加入智领云 8 余年&#xff0c;长期从事云原生、容器化编排领域研发工作&#xff0c;主导了智领云自研的 BDOS 应用云平台、云原生大数据平台 KDP 等产品的开发&#xff0c;并在…

SUSE linux 15的网络管理

1 手工配置网络 wicked提供了一种新的网络配置框架。自SUSE 12起&#xff0c;SUSE使用了新的网络管理工具wicked&#xff0c;这个是区别与其他常见发行版的。常见的发行版目前大多使用的是NetworkManager服务进行网络管理。 1.1 wicked网络配置 传统网络接口管理面临的挑战之…

C语言学习记录20240622

这次需要用 C 语言库 Allegro 写爆破彗星游戏。项目有一些描述如需要绘制飞船、彗星、子弹&#xff0c;需要响应按键实现飞船加速、减速、转向、开火&#xff0c;需要绘制弹道&#xff0c;需要实现彗星旋转、缩放&#xff0c;需要碰撞检测&#xff0c;需要显示计分。 这些用 w…

打破数据分析壁垒:SPSS复习必备(五)

一、分类变量的统计描述与参数估计 1、分类变量的统计描述指标体系 1&#xff09;频数分布情况描述 各个类别的样本数和所占比例分别称为频数&#xff08;绝对频数&#xff09;和百分比&#xff08;构成比&#xff09;。 累计频数是指本类别及较低类别出现的次数之和&#…

小熊文件工具箱免费版

小熊文件工具箱是一款基于本地离线操作的一系列工具的合集&#xff0c;最大特点是各种批量任务的执行&#xff0c;包含了智能证件照&#xff0c;自动抠图&#xff0c;直播录制&#xff0c;九宫格切图&#xff0c;拼图&#xff0c;视频格式转换及压缩&#xff0c;zip压缩解压缩&…

学习es6

1、let变量 2、const常量 3、解构赋值 4、模板字符串 5、简化对象写法 6、参数默认值 7、rest参数 8、扩展运算符 9、扩展对象方法 10、扩展数组方法 11、Set 12&#xff0c;Promise 13、Module模块

Android | 性能优化 之 TraceView工具的使用

上代码&#xff01; 先加权限&#xff1a; <uses-permission android:name"android.permission.WRITE_EXTERNAL_STORAGE"/> <uses-permission android:name"android.permission.MOUNT_UNMOUNT_FILESYSTEMS"/> 选择跟踪范围,在开始追踪和结束…

sdlan如何智能组网?

【天联】组网是一款异地组网内网穿透产品&#xff0c;由北京金万维科技有限公司自主研发&#xff0c;旨在解决不同地区电脑与电脑、设备与设备、电脑与设备之间的信息远程通信问题。【天联】的操作简单、跨平台应用、无网络要求以及独创的安全加速方案等特点&#xff0c;使得它…

MyBatis系列六: 映射关系多对一

动态SQL语句-更复杂的查询业务需求 官方文档基本介绍映射方式配置Mapper.xml的方式-应用实例注解的方式实现-应用实例课后练习 官方文档 文档地址: https://mybatis.org/mybatis-3/zh_CN/sqlmap-xml.html 基本介绍 ●基本介绍 1.项目中多对1的关系是一个基本的映射关系, 也可…

镜像操作_容器操作_镜像拉取_镜像开机启动_镜像删除等常用操作---分布式云原生部署架构搭建008

docker的常用命令大全啊 然后再来看容器的常用命令,快速过一遍 找镜像在这里 hub.docker.com 这里 去找到对应的 镜像 直接docker pull 就可以了 然后注意这里有个tags,就是标签,镜像的标签 其实就是各个版本

CTFHUB-SSRF-POST请求

通过file协议访问flag.php文件内容 ?urlfile:///var/www/html/flag.php 右键查看页面源代码 需要从内部携带key发送post数据包即可获得flag ?urlhttp://127.0.0.1/flag.php 得到了key 构造POST请求数据包&#xff0c;进行url编码&#xff08;新建一个txt文件&#xff0c;…

vue3自动导入---组件库elements-ui,vuetify以及scss样式的自动导入

自动导入 我们在使用第三方组件库和css样式文件时&#xff0c;都需要进行引入&#xff0c;可以在单个组件内单独引用&#xff0c;也可以在全局引入或一次引入所有组件&#xff1b;但是&#xff0c;一般情况下我们都不会全部引入&#xff0c;这会是打包的结果变大&#xff0c;而…

TCP 和 UDP 可以同时绑定相同的端口吗?

在网络编程中&#xff0c;TCP和UDP都可以绑定到同一个端口上进行通信。TCP和UDP是OSI模型中的传输层协议&#xff0c;它们分别使用不同的端口号来区分不同的应用程序或服务。 TCP&#xff08;Transmission Control Protocol&#xff09;提供了面向连接的、可靠的传输服务&…

【Mac】FxFactory 8 Pro for Mac(视觉特效处理包)及同类型软件介绍

软件介绍 FxFactory Pro 是一款功能强大的插件管理和创作工具&#xff0c;专为视频编辑器和特效艺术家设计&#xff0c;适用于 macOS 系统。它集成了大量的视频特效插件&#xff0c;并与多种主流视频编辑软件无缝兼容&#xff0c;如 Final Cut Pro、Premiere Pro、After Effec…

Unity 限时免费资源 - FANTASTIC万圣节资源包

Unity 资源 - FANTASTIC - Halloween Pack 万圣节包 前言资源包内容领取兑换码 前言 亲爱的 Unity 游戏开发者们&#xff0c;今天要给大家介绍一款限时免费的优质资源包 - FANTASTIC - Halloween Pack 万圣节资源包。 这个资源包为您的游戏创作带来了丰富的万圣节主题元素。其…

PCB行业迈入数字化新时代,智能工厂引领未来制造

在传统的PCB生产过程中&#xff0c;人工操作、纸质记录、经验判断等方式占据了主导地位。然而&#xff0c;这种方式不仅效率低下&#xff0c;而且容易出现误差&#xff0c;导致产品质量不稳定。同时&#xff0c;随着市场竞争的加剧&#xff0c;客户对产品的交期、质量、成本等方…