探索Apache Hudi核心概念 (4) - Clustering

news2024/11/16 4:16:38

Clustering是Hudi在0.7.0版本引入的一项特性,用于优化文件布局,提升读写性能,现在它已经成为Hudi的一项重要性能优化手段。本文我们会通过Notebook介绍并演示Clustering的运行机制,帮助您理解其工作原理和相关配置。

1. 运行 Notebook

本文使用的Notebook是:《Apache Hudi Core Conceptions (5) - COW: Clustering》,对应文件是:5-cow-clustering.ipynb,请先修改Notebook中的环境变量S3_BUCKET,将其设为您自己的S3桶,并确保用于数据准备的Notebook:《Apache Hudi Core Conceptions (1) - Data Preparation》已经至少执行过一次。Notebook使用的Hudi版本是0.12.1,Spark集群建议配置32 vCore / 128 GB及以上。

2. 核心概念

通常,数据采集倾向于将数据并行写入多个小文件,这样可以提升写入吞吐量,让下游及早获得采集数据;但对于查询来说,大量的小文件会严重影响读取性能;另一方面,在数据采集时,数据是按到达的先后顺序存储的,这种数据分布无法被查询引擎有效利用,如果数据能按查询频率最高的条件列排序后再存储则可以显著提升部分查询的性能,这里有两方面的原因:一是排序后可以利用谓词下推和Data Skip技术跳过大量不相关的数据,二是有一个为人所熟知的理论:统计显示,当一条记录被访问后,与之“临近”的数据也将很快被访问到,现代文件系统(例如HDFS)一般都有Block Cache,已读取的数据块会被缓存在内存中,访问临近数据时效率会非常高。这里的“临近”就取决于我们如何对数据进行排序。所以,对于一个湖仓系统来说,在数据接入和数据查询两种场景下,对文件大小和数据排布是有不同要求或偏好的,在数据只有一份,配置也只有一份的情况下,系统可优化的空间非常有限,用户只能在接入性能和查询性能之间进行权衡。

针对这种“两难”局面,Hudi的Clustering给出了一套相对完善的解决方案,它的核心思想是:在数据接入时,允许并行写入多个小文件,以提升写入性能,同时通过一个异步(也可以同步执行,但不推荐)进程或线程周期性地将小文件合并成大文件并在这一过程中对数据按特定的列重新排序,这样在解决小文件问题的同时又改善了查询性能。实际上,Clustering是一种通用的数据布局优化手段,Spark SQL/Hive中的cluster by和Cassandra中的clustering key都是Clustering思想的具体实现,只是Hudi的Clustering除了这一标准功能外还多了一项合并小文件的工作。以下是与Clustering有关的几项重要配置,在后面的介绍中我们会逐一介绍它们的作用:

配置项默认值
hoodie.clustering.inlinefalse
hoodie.clustering.schedule.inlinefalse
hoodie.clustering.async.enabledfalse
hoodie.clustering.inline.max.commits4
hoodie.clustering.async.max.commits4
hoodie.clustering.plan.strategy.small.file.limit314572800 ( 300MB )
hoodie.clustering.plan.strategy.target.file.max.bytes1073741824 ( 1GB )
hoodie.clustering.plan.strategy.sort.columns-
hoodie.parquet.small.file.limit104857600 ( 100MB )

2.1. 排期与执行

Clustering的执行机制和Compaction非常类似,也是分为:排期(Schedule)和执行(Execute)两个阶段。排期阶段的主要工作是划定哪些文件将参与Clustering,然后生成一个计划(Clustering Plan)保存到Timeline里,此时在Timeline里会出现一个名为replacecommit的Instant,状态是REQUESTED;执行阶段的主要工作是读取这个计划(Clustering Plan)并执行它,执行完毕后,Timeline中的replacecommit就会变成COMPLETED状态。

2.2. 同步与异步

和Compaction一样,Clustering的运行模式也分为:同步、异步以及半异步三种模式(“半异步”模式是本文使用的一种叫法,为的是和同步、异步两种模式的称谓对齐,Hudi官方文档对这一模式有介绍,但没有给出命名),它们之间的差异主要体现在从(达到规定阈值的某次)提交(Commit)到排期(Schedule)再到执行(Execute)三个阶段的推进方式上。在Hudi的官方文档中,交替使用了Sync/Async和Inline/Offline两组词汇描述推进方式,这两组词汇是有微妙差异的,为了表述严谨,我们使用同步/异步和立即/另行这两组中文术语与之对应。以下是Clustering三种运行模式的详细介绍。

  • 同步模式(Inline Schedule,Inline Execute)

请添加图片描述

同步模式可概括为:立即排期,立即执行(Inline Schedule,Inline Execute)。在该模式下,当累积的提交(Commit)次数到达一个阈值时,会立即触发Clustering的排期与执行(排期和执行是连在一起的),而这个阈值是由配置项 hoodie.clustering.inline.max.commits 控制的,默认值是4,即:默认情况下,每提交4次就(有可能)会触发并执行一次Clustering。锁定同步模式的配置是:

配置项设定值
hoodie.clustering.inlinetrue
hoodie.clustering.schedule.inlinefalse
hoodie.clustering.async.enabledfalse
  • 异步模式(Offline Schedule,Offline Execute)

请添加图片描述

异步模式可概括为:另行排期,另行执行(Offline Schedule,Offline Execute)。在该模式下,任何提交都不会直接触发和执行Clustering,除非使用了支持异步Clustering的Writer,否则用户需要自己保证有一个独立的进程或线程负责定期执行Clustering操作。Hudi提供了三种运行异步Clustering的方式:

  1. 通过hudi-cli或直接提交Spark作业驱动异步Clustering
  2. 在HoodieDeltaStreamer中配置并运行异步Clustering
  3. 在Spark Structured Streaming中配置并运行异步Clustering

在后面的测试用例中,我们将使用第一种方式演示如何进行异步的Clustering排期与执行。和同步模式类似的是,在异步模式下,只有累积到足够的提交(Commit)次数时才会触发排期,这个值是由配置项 hoodie.clustering.async.max.commits设定的,默认值也是4,即:默认情况下,每提交4次就(有可能)会触发并执行一次Clustering。

如果对比一下Compaction,我们就会发现,此时Clustering和Compaction在设计上开始出现了一些差异。在Compaction中,与提交次数有关的配置项只有一个,即:hoodie.compact.inline.max.delta.commits,该项对于Compaction的同步、异步和半异步模式都有效,而在Clustering中,针对同步和异步则提供了两个不同的配置项:hoodie.clustering.inline.max.commitshoodie.clustering.async.max.commits

在异步模式下,由于发起排期和提交之间没有必然的协同关系,所以在发起排期时,Timeline中可能尚未积累到足够数量的提交,或者提交数量已经超过了规定阈值,如果是前者,不会产生排期计划,如果是后者,排期计划会将所有累积的提交涵盖进来,在这一点上,Clustering和Compaction的处理方式是一致的。锁定异步模式的配置是:

配置项设定值
hoodie.clustering.inlinefalse
hoodie.clustering.schedule.inlinefalse
hoodie.clustering.async.enabledtrue
  • 半异步模式(Inline Schedule,Offline Execute)

请添加图片描述

半异步模式可概括为:立即排期,另行执行(Inline Schedule,Offline Execute),即:排期会伴随提交自动触发,但执行还是通过前面介绍的三种异步方式之一去完成。

在半异步模式下,Clustering和Compaction在设计上出现了更显著的差异。Compaction的半异步模式,即:Inline Schedule, Offline Execute,其排期周期会受hoodie.compact.inline.max.delta.commits的控制,即:排期会根据累积的提交次数周期性触发;而Clustering的半异步模式则采用了完全不同的做法,不管是hoodie.clustering.inline.max.commits还是hoodie.clustering.async.max.commits都对它不起作用,该模式下,每一次提交都会(尝试)生成排期计划,没有配置项能改变这个排期周期,初次了解到这一状况时,很多人会感到困惑,因为这样会变成每提交一次就得进行一次Clustering,这肯定是不合理的。

实际情况是,排期还会受到另外一个因素的影响:如果当前Timelines中有积压的排期计划(即状态为REQUESTEDreplacecommit),Hudi不会再生成新的排期,直到它被执行掉,这就相当于将排期的周期“挂靠”到了执行周期上。举个例子:假设一个Hudi的客户端使用半异步模式向某张表持续写入数据,每分钟内会产生若干次提交,与此同时,一个异步进程每分钟会进行一次Offline Execute,在这个场景下,每次Execute完成时,Timeline中那个pending的排期计划就会被consume掉(replacecommitREQUESTED变成了COMPLETED),于是,紧接着的下一次提交会立即生成新的排期计划,这个排期计划会将此前一分种内提交的小文件全部涵盖在内,等到一分钟后再次启动Offline Execute时,这批小文件就被打包成大文件了。

简单总结一下半异步的设计思想:它在每次提交时都会尝试生成排期,如果此前已经生成了排期且尚未执行,则放弃排期,等待其被执行,当异步进程或线程完成执行作业时,紧接着的下一次提交会立即生成新的排期,这样,整个Clustering的“节奏”就由异步的执行程序来掌控了。锁定半异步模式的配置是:

配置项设定值
hoodie.clustering.inlinefalse
hoodie.clustering.schedule.inlinetrue
hoodie.clustering.async.enabledfalse

2.3. 排期策略

前面在介绍hoodie.clustering.inline.max.commitshoodie.clustering.async.max.commits时,我们说在达到这些阈值时“有可能”会触发Clustering,因为是否会生成一个Clustering排期还取决于排期策略。

实际上,Clustering在排期和执行上都有可插拔的策略,以及在执行期间如何应对数据更新也有相应的更新策略,执行策略和更新策略较为简单,使用默认配置即可,本文不再赘述,详情可参考官方文档。本文着重介绍一下排期策略。Hudi有三种Clustering排期策略可供选择:

  • SparkSizeBasedClusteringPlanStrategy: 该策略为默认的排期策略,它会筛选出符合条件的小文件(就是看文件大小,小于hoodie.clustering.plan.strategy.small.file.limit规定值的文件就是小文件),然后将选出的小文件分成多个Group,Group的数量和大小都是可配置的,划分Group的目的是提升Clustering的并行度。注意:该策略将会扫描全部分区。

  • SparkRecentDaysClusteringPlanStrategy: 该策略会在此前N天的分区内查找小文件,对于使用日期作分区,且数据增量是可预期的数据表来说,这种策略是非常适合的。如果在这种情况下使用默认排期策略,就会扫描全部分区,给系统带来没有必要的负载。

  • SparkSelectedPartitionsClusteringPlanStrategy:该策略允许我们针对特定的分区进行Clustering,这可能会应用在运维或某些具有独特业务特征的数据表上。

下面,我们看一下排期策略会使用到的和文件大小相关的配置项,在接下来的测试用例中,也会使用到它们:

配置项默认值
hoodie.clustering.plan.strategy.small.file.limit314572800 ( 300MB )
hoodie.clustering.plan.strategy.target.file.max.bytes1073741824 ( 1GB )

hoodie.clustering.plan.strategy.small.file.limit在前面已经提及,只有小于该值的文件才会被视为小文件,从而参与到Clustering中,默认值是300MBhoodie.clustering.plan.strategy.target.file.max.bytes用于限制Clustering生成的文件大小,默认是1GB,即:经Clustering合并后的数据文件最大不会超过1GB,如果数据总量大于1GB,会均分为多个文件。

2.4. 排序列

配置项hoodie.clustering.plan.strategy.sort.columns用于指定在Clustering过程中针对哪个列重新进行排序,这也是前文重点解释的Clustering能提升数据读取性能的关键。该列的选择对提升查询效率非常重要,通常会选择查询频率最高的条件列。尽管该配置项支持多列,但如果配置了两个或更多列的话,对于那些排在第一列后面的列来说,以它们为条件的查询并不能从中获得太多收益,这和在HBase中拼接列值到Rowkey中以提升检索性能是一样的。不过,Hudi提供了以z-order和hilbert为代表的空间填充曲线技术用于解决多列排序问题。

2.5. 关闭小文件检查

最后,也许应该是最先提醒的一点:关闭Parquet的小文件检查,即:将hoodie.parquet.small.file.limit置为0。介绍到这里的时候,相信你应该能理解为什么要这样做了:将该项置为0意味着所有的文件都会被视作大文件,任何数据的写入都不再发生Copy On Write的Copy动作,而是直接写入新文件,这将大大减轻写入负担,由此产生的大量小文件就是Clustering要去解决的事情了。

3. 同步Clustering

3.1. 关键配置

《Apache Hudi Core Conceptions (5) - COW: Clustering》的第1个测试用例基于COW表演示了同步Clustering的运行机制。测试用的数据表有如下几项关键配置:

配置项默认值设定值
hoodie.clustering.inlinefalsetrue
hoodie.clustering.schedule.inlinefalsefalse
hoodie.clustering.async.enabledfalsefalse
hoodie.clustering.inline.max.commits43
hoodie.clustering.plan.strategy.small.file.limit314572800 ( 300MB )209715200 ( 200MB )
hoodie.clustering.plan.strategy.target.file.max.bytes1073741824 ( 1GB )314572800 ( 300MB )
hoodie.clustering.plan.strategy.sort.columnsreview_date
hoodie.parquet.small.file.limit104857600 ( 100MB )0
hoodie.copyonwrite.record.size.estimate1024175

这些配置项在介绍概念时都已提及,通过这个测试用例将会看到它们组合起来的整体效果。

3.2. 测试计划

该测试用例会先后插入三批数据,然后进行同步的Clustering排期和执行,过程中将重点观察时间线和文件布局的变化,整体测试计划如下表所示:

步骤操作数据量(单分区)文件系统
1Insert96MB+1 Small File
2Insert213MB+1 Max File +1 Small File
3Insert182MB+1 Max File +1 Small File +2 Clustered Files

提示:我们将使用色块标识当前批次的Instant和对应存储文件,每一种颜色代表一个独立的File Group。

3.3. 第1批次

第1批次单分区写入了96MB数据,Hudi将其写入到一个Parquet文件中,第一个File Group随之产生。

请添加图片描述

3.4. 第2批次

第2批次单分区写入了213MB数据,由于数据表关闭了小文件检查,即:将hoodie.parquet.small.file.limit设为了0,所以这批数据全部都会写入新文件,由于总体积超过了120MB,所以将分成两个文件写入,第二和第三个File Group出现。

请添加图片描述

3.5. 第3批次

第3批次单分区写入了182MB数据,和上一批次一样,因为总体积超过了120MB,所以分成两个文件写入,第四和五个File Group出现。由于该表被设置为同步Clustering模式且最大提交次数是3,所以此次提交触发了Clustering机制,自动发起了名为replacecommit的第四次提交,第四次提交将5个小于200MB的文件打包,经重新排序后,写入到了两个新文件中,一个220MB,另一个269MB,完成了一次标准的Clustering操作:

请添加图片描述

和COW写Parquet文件不同的是,Clustering倾向于将数据均匀分布到生成的文件中,以使它们大小相同或接近,而不是写满一个300MB的Max File和一个189MB的Small File。

请添加图片描述

3.6. 复盘

最后,让我们将此前的全部操作汇总在一起,重新看一下整体的时间线和最后的文件布局:

请添加图片描述

4. 异步Clustering

4.1. 关键配置

《Apache Hudi Core Conceptions (5) - COW: Clustering》的第2个测试用例基于COW表演示了异步Clustering的运行机制。测试用的数据表有如下几项关键配置:

配置项默认值设定值
hoodie.clustering.inlinefalsefalse
hoodie.clustering.schedule.inlinefalsefalse
hoodie.clustering.async.enabledfalsetrue
hoodie.clustering.async.max.commits43
hoodie.clustering.plan.strategy.small.file.limit314572800 ( 300MB )209715200 ( 200MB )
hoodie.clustering.plan.strategy.target.file.max.bytes1073741824 ( 1GB )314572800 ( 300MB )
hoodie.clustering.plan.strategy.sort.columnsreview_date
hoodie.parquet.small.file.limit104857600 ( 100MB )0
hoodie.copyonwrite.record.size.estimate1024175

这些配置项在介绍概念时都已提及,通过这个测试用例将会看到它们组合起来的整体效果。

4.2. 测试计划

该测试用例会先后插入三批数据,然后进行异步的Clustering排期和执行,过程中将重点观察时间线和文件布局的变化,整体测试计划如下表所示:

步骤操作数据量(单分区)文件系统
1Insert96MB+1 Small File
2Insert213MB+1 Max File +1 Small File
3Insert182MB+1 Max File +1 Small File
4Offline ScheduleN/AN/A
5Offline Execute491MB+2 Clustered Files

由于该测试用例的前三步操作与第3节(第1个测试用例)完全一致,所以不再赘述,我们会从第4步操作(Notebook的3.8节)开始解读。

4.3. 异步排期

在完成了和第3节完全一样的前三批操作后,时间线和文件系统的情形如下:

请添加图片描述

这和3.5节执行后的状况非常不同,没有发生Clustering,连排期也没有看到,因为我们关闭了hoodie.clustering.inline。于是,在接下来的第4步操作中(Notebook的3.8节),我们通过spark-submit手动发起了一个排期作业(--mode 'schedule'):

sudo -u hadoop spark-submit \
  --jars '/usr/lib/hudi/hudi-spark-bundle.jar' \
  --class 'org.apache.hudi.utilities.HoodieClusteringJob' \
  /usr/lib/hudi/hudi-utilities-bundle.jar \
  --spark-memory '4g' \
  --mode 'schedule' \
  --base-path "s3://${S3_BUCKET}/${TABLE_NAME}" \
  --table-name "${TABLE_NAME}" \
  --hoodie-conf "hoodie.clustering.async.enabled=true" \
  --hoodie-conf "hoodie.clustering.async.max.commits=3" \
  --hoodie-conf "hoodie.clustering.plan.strategy.small.file.limit=209715200" \
  --hoodie-conf "hoodie.clustering.plan.strategy.target.file.max.bytes=314572800" \
  --hoodie-conf "hoodie.clustering.plan.strategy.sort.columns=review_date"

执行后,文件布局没有变化,但是在时间线中出现了一个状态为REQUESTEDreplacecommit

请添加图片描述

4.4. 异步执行

第5步操作(Notebook的3.9节)通过spark-submit手动发起了一个执行作业(--mode 'execute'):

sudo -u hadoop spark-submit \
  --jars '/usr/lib/hudi/hudi-spark-bundle.jar' \
  --class 'org.apache.hudi.utilities.HoodieClusteringJob' \
  /usr/lib/hudi/hudi-utilities-bundle.jar \
  --spark-memory '4g' \
  --mode 'execute' \
  --base-path "s3://${S3_BUCKET}/${TABLE_NAME}" \
  --table-name "${TABLE_NAME}"

执行后,原replacecommit状态由REQUESTED变为COMPLETED,原5个小于200MB的文件被打包,经重新排序后写入两个245MB的大文件:

请添加图片描述

4.5. 异步排期 + 异步执行

异步的排期和执行可以通过一个命令一步完成,《Apache Hudi Core Conceptions (5) - COW: Clustering》的第3个测试用例演示了这一操作。它的前三步操作与第2个测试用例一样,在第四步时,使用了“排期 + 异步”一起执行的方式(--mode 'scheduleAndExecute')一步完成了Clustering操作,命令如下:

sudo -u hadoop spark-submit \
  --jars '/usr/lib/hudi/hudi-spark-bundle.jar' \
  --class 'org.apache.hudi.utilities.HoodieClusteringJob' \
  /usr/lib/hudi/hudi-utilities-bundle.jar \
  --spark-memory '4g' \
  --mode 'scheduleAndExecute' \
  --base-path "s3://${S3_BUCKET}/${TABLE_NAME}" \
  --table-name "${TABLE_NAME}" \
  --hoodie-conf "hoodie.clustering.async.enabled=true" \
  --hoodie-conf "hoodie.clustering.async.max.commits=3" \
  --hoodie-conf "hoodie.clustering.plan.strategy.small.file.limit=209715200" \
  --hoodie-conf "hoodie.clustering.plan.strategy.target.file.max.bytes=314572800" \
  --hoodie-conf "hoodie.clustering.plan.strategy.sort.columns=review_date"

5. 半异步Clustering

5.1. 关键配置

《Apache Hudi Core Conceptions (5) - COW: Clustering》的第4个测试用例基于COW表演示了半异步Clustering的运行机制。测试用的数据表有如下几项关键配置:

配置项默认值设定值
hoodie.clustering.inlinefalsefalse
hoodie.clustering.schedule.inlinefalsetrue
hoodie.clustering.async.enabledfalsefalse
hoodie.clustering.plan.strategy.small.file.limit314572800 ( 300MB )209715200 ( 200MB )
hoodie.clustering.plan.strategy.target.file.max.bytes1073741824 ( 1GB )314572800 ( 300MB )
hoodie.clustering.plan.strategy.sort.columnsreview_date
hoodie.parquet.small.file.limit104857600 ( 100MB )0
hoodie.copyonwrite.record.size.estimate1024175

这些配置项在介绍概念时都已提及,通过这个测试用例将会看到它们组合起来的整体效果。

5.2. 测试计划

由于半异步模式的执行机制与同步和纯异步都有不小的差异,所以测试计划也做出了一些相应的调整,以便能展示它的全貌,整体测试计划如下:

步骤操作数据量(单分区)文件系统
1Insert96MB+1 Small File
2Insert213MB+1 Max File +1 Small File
3Insert182MB+1 Max File +1 Small File
4Offline Execute96MB+1 Clustered File
5Insert14.6MB+1 Small File
6Offline Execute503MB+2 Clustered Files

5.3. 第1次同步排期

如前文所述,在半异步模式下,每次提交都会尝试生成排期计划,这一点,在测试用例的第一批次(Notebook 5.5节)插入中就表现了出来:

请添加图片描述

初次提交时,Timeline上没有未处理的排期,Hudi会立即生成排期计划,而在这个排期计划里,只是一个96MB的数据文件(只看单分区),所以可以推断:这个排期计划执行完毕后,依然只会生成一个相同大小的数据文件。

在第二批次(Notebook 5.6节)插入后,Timeline中并没有生成新的排期,原因是当前Timeline中存在未处理的排期计划,第三批次(Notebook 5.7节)同样如此:
请添加图片描述

5.4. 第1次异步执行

完成了三个批次的插入后,测试用例在第四步(Notebook 5.8节)发起了一次异步执行。由于此时的这个排期计划是在第一批次提交时生成的,当时只有一个96MB的小文件(只看单分区)可以参与Clustering,所以结果就是又生成了一个同样大小的文件:

请添加图片描述

尽管这一行为在当下看起来有些怪异,但它的整体逻辑是没有问题的,这只是半异步模式下短暂出现的“空转”现象,在后续的排期中会慢慢正常起来。

5.5. 第2次同步排期

完成第四步(Notebook 5.8节)的异步执行后,Timeline中就没有待执行的排期计划了,于是在第五步(Notebook 5.9节)插入操作完成后,随即生成了第2次排期:

请添加图片描述

此次排期将会覆盖此前所有提交生成的文件(包括第1次Clustering生成的那个96MB的文件),因为它们全都是没有超过200MB的小文件。

5.6. 第2次异步执行

第六步(Notebook 5.10节)发起了第2次异步执行,不同于第1次执行,这次的操作效果已经是一次符合预期的标准Clustering了:
请添加图片描述


关联阅读:

探索Apache Hudi核心概念 (1) - File Layouts

探索Apache Hudi核心概念 (2) - File Sizing

探索Apache Hudi核心概念 (3) - Compaction

探索Apache Hudi核心概念 (4) - Clustering


关于作者:耿立超,架构师,著有 《大数据平台架构与原型实现:数据中台建设实战》一书,多年IT系统开发和架构经验,对大数据、企业级应用架构、SaaS、分布式存储和领域驱动设计有丰富的实践经验,个人技术博客:https://laurence.blog.csdn.net

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/439273.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

RocketMQ 多级存储设计与实现

作者:张森泽 随着 RocketMQ 5.1.0 的正式发布,多级存储作为 RocketMQ 一个新的独立模块到达了 Technical Preview 里程碑:允许用户将消息从本地磁盘卸载到其他更便宜的存储介质,可以用较低的成本延长消息保留时间。本文详细介绍 …

记录贴:EasyPoi word导出问题一览

项目场景: EasyPoi word导出 问题描述1 easypoi 模板导出 我直接在map的value输入空格或"",出来的是{{,两个左花括号,咋解决 解决方案: exportMap.put("key", "\u00A0"); //空格前端效果: 其他无效解决方案…

Redis安装配置操作记录

Redis 官网:https://redis.io/ 中文文档:https://www.redis.com.cn/documentation.html 在线命令参考:http://doc.redisfans.com 一,Redis下载安装与配置 下载网站,可下载安装包然后安装或可使用brew来安装Redis&#…

LeetCode——前K个高频单词

692. 前K个高频单词 给定一个单词列表 words 和一个整数 k ,返回前 k 个出现次数最多的单词。 返回的答案应该按单词出现频率由高到低排序。如果不同的单词有相同出现频率, 按字典顺序 排序。 示例 1: 输入: words [“i”, “love”, “le…

太阳能电池测试解决方案NS-9001

前言 太阳能行业的快速发展提高了对太阳能电池测试和精确测量解决方案要求,伴随着太阳能电池尺寸大小质量的提升,充电电池测试必须更多的电流和更高输出功率水准,这就更加需要灵活多变的测试方案支持。 现阶段,太阳能电池测试 解…

Java学习星球,Java学习路线

目录 一、Java学习路线二、学习计划三、为何会有Java学习星球?四、加入星球后,你可以得到什么?五、如何加入Java学习星球?六、打卡挑战 大家好,我是哪吒,一个靠着热情攀登至C站巅峰的中年男子,C…

【历史上的今天】3 月 20 日:cURL 二十五周年;Docker 发布;思科收购 Linksys

整理 | 王启隆 透过「历史上的今天」,从过去看未来,从现在亦可以改变未来。 今天是 2023 年 3 月 20 日,在 1999 年的今天,人类首次成功乘热气球环球飞行。在 24 年的今天,瑞士人皮尔卡、英国人琼斯经过近 20 天的飞行…

JavaWeb—HTTP协议

目录 1.HTTP协议 1.1 HTTP-概述 1.1.1 介绍 2.1.2 特点 1.2 HTTP-请求协议 HTTP-请求数据格式 GET请求和POST请求的区别: 1.3 HTTP-响应协议 1.3.1 格式介绍 1.3.2 响应状态码 常见响应状态码 1.4 HTTP-协议解析 1.HTTP协议 1.1 HTTP-概述 1.1.1 介绍 HTT…

ModuleNotFoundError: No module named ‘cuda‘、‘tensorrt‘

1、 ModuleNotFoundError: No module named ‘cuda’ python -m pip install --upgrade pip pip install cuda-python2、 ModuleNotFoundError: No module named ‘tensorrt’ 2.1 依赖库 先安装两个TensorRT的依赖库 python -m pip install --upgrade pip pip install nvi…

openstack compute schedulers

https://docs.openstack.org/nova/latest/admin/scheduling.html 在默认的配置中,调度器将考虑如下的几个方面: 请求的是Availability Zonenova-compute服务在目标节点上是启用的满足实例类型的extra specs(ComputeCapabilityesFilter&#…

Spring Boot Web

一. 概述 下面我们将进入 SpringBoot 基础阶段的学习。 在没有正式的学习 SpringBoot 之前,我们要先来了解下什么是 Spring 。 我们可以打开 Spring 的官网 ( https://spring.io ) ,去看一下 Spring 的简介: Spring makes Java simple 。…

UUID无处不在,你就是唯一(2023.4.16)

六种语言生成UUID 2023.4.16 引言1、UUID简介2、UUID格式和编码3、UUID各历史版本4、UUID代码具体调用实现4.1 C# 生成UUID4.2 Java 生成UUID4.3 Python 生成UUID4.4 C 生成UUID4.5 C 生成UUID4.6 JavaScript 生成UUID(较为实用)4.6.1 控制台运行&#x…

测绘与设计之间的鸿沟:坐标系,教你如何将CAD与测绘数据准确叠加

一、背景 2008年,我国推出了2000国家大地坐标系(以下简称国家2000坐标系),截至2022年,国家2000坐标系在自然资源领域已经取得了较高的普及率,但在工程建设领域的普及率依旧比较低,很多工程项目…

23种设计模式(9)——适配器模式

目录 一、基本介绍 二、demo 2.1、类适配器模式 类适配器模式注意事项和细节 2.2、对象适配器模式 对象适配器模式注意事项和细节 2.3、接口适配器模式 接口适配器模式介绍 三、适配器模式在框架中的应用 3.1在 SpringMVC 框架应用 3.2、spring AOP中的适配器模式 一、…

如何制作实时库存报表

草料二维码暂不支持自动计算功能,无法看到实时的库存数量。但可以使用外部数据分析工具,如百度Sugar,连接草料二维码官方数据库,即可自由实现各类计算,包括实时库存。 一、案例效果 输入物料名称,即可快速…

oracle学习之rownum和rowid

rownum先百度一波https://www.cnblogs.com/xfeiyun/p/16355165.html rownum是oracle特有的一个关键字。 对于基表,在insert记录时,oracle就按照insert的顺序,将rownum分配给每一行记录,因此在select一个基表的时候,r…

Java基础(八)异常处理

1. 异常概述 1.1 什么是生活的异常 男主角小明每天开车上班,正常车程1小时。但是,不出意外的话,可能会出现意外。 出现意外,即为异常情况。我们会做相应的处理。如果不处理,到不了公司。处理完了,就可以…

Ubuntu下打开QtCreator,环境变量(PATH、LD_LIBRARY_PATH等)与预期不一致的问题

现象展示 在Ubuntu中,安装好Qt之后,可以在系统桌面的左下角找到启动图标 但是,这种方式启动的QtCreator所读取到的环境变量和我们从命令行读取到的不一致: 可以看到,明显少了这个:/opt/ros/humble/bin 因…

Docker实战笔记3-仓库

转载请标明出处:http://blog.csdn.net/zhaoyanjun6/article/details/130260521 本文出自【赵彦军的博客】 文章目录 官方仓库 Docker Hub注册登录查看镜像搜索镜像推送镜像自动构建 网易镜像 官方仓库 Docker Hub https://hub.docker.com/ 目前 Docker 官方维护了…

C++入门之auto关键字内联函数

文章目录 前言一、auto关键字1.auto简介2.auto的使用细则(1)auto与指针和引用结合起来使用(2)在同一行定义多个变量(3)auto不能推导的场景 3.基于范围的for循环(C11)(1)遍历&#xf…