GPU 学习笔记四:GPU多卡通信(基于nccl和hccl)

news2024/11/4 22:11:50

文章目录

  • 一、前沿
    • 1.1 背景回顾
    • 1.2 XCCL在AI通信架构中的位置和作用
  • 二、英伟达GPU通信 nccl
    • 2.1 NCCL简介
    • 2.2 通信模式
      • 2.2.1 通信模式分类
      • 2.2.2 通信模式分析
      • 2.2.3 通信nccl编程实例
    • 2.3 NCCL通信算法
      • 2.3.1 环形算法 ring algorithm
      • 2.3.2 树形算法 tree algorithm

防止遗忘和后续翻找的麻烦,记录下平时学到和用到的GPU知识,较为琐碎,不考虑连贯性和严谨性,如有欠妥的地方,欢迎指正。


GPU 学习笔记一:从A100与910B分析中,学习GPU参数的意义。
GPU 学习笔记二:GPU单机多卡组网和拓扑结构分析(基于A100的单机多卡拓扑结构分析)
GPU 学习笔记三:GPU多机多卡组网和拓扑结构分析(基于数据中心分析)
GPU 学习笔记四:GPU多卡通信(基于nccl和hccl)
GPU 学习笔记五:大模型分布式训练实例(基于PyTorch和Deepspeed)
GPU 学习笔记六:NVIDIA GPU架构分析(基于技术演进时间线,持续更新)
GPU 学习笔记七:华为 NPU架构分析(基于技术演进时间线,持续更新)
GPU 学习笔记八:GPU参数对比统计表(记录GPU参数,持续更新)



一、前沿

1.1 背景回顾

在前面几章中,记录了多机多卡的网络物理拓扑结构,这篇文章将基于上述拓扑结构,详细介绍GPU通信模式。

防止忘记,再来回顾一下。
1)数据中心网络拓扑
在这里插入图片描述

2)英伟达多机多卡拓扑:
在这里插入图片描述

3)英伟达单机多卡拓扑:
在这里插入图片描述

4)GPU跨机通信模式:
在这里插入图片描述

1.2 XCCL在AI通信架构中的位置和作用

XCCL:X产品的集合通信库,包括英伟达的nccl、华为的hccl等,是面向GPU通信的专用高性能通信库,遵循MPI协议,同时也做了一些个性化设置。

XCCL位置图:
在这里插入图片描述



二、英伟达GPU通信 nccl

2.1 NCCL简介

NCCL文档索引

1)NCCL介绍
NCCL,全称“NVIDIA Collective Communication Linrary”,英伟达集合通信库,发音为“Nickel”。

NCCL是专门用于加速GPU间通讯的高性能通信库,用来加速多机多卡间的并行计算速度,提升通信和数据传输性能。

NCCL具有拓扑感知的能力,可以自动感知数据中心的扑结结构,通过优化通信模式来最大化的减少通信延迟和带宽损耗。

NCCL提供了丰富的原语,可基于linux系统直接运行,可以轻松的集成到应用程序中。
官网提供了两种下载方式,一种是作为NVIDIA NPC SDK的一部分下载,另一种是作为ubuntu、redhat等linux系统的单独软件包下载,目前不支持windows平台。

2)NCCL架构设计:

NCCL对上提供了丰富的API,供上层框架调用。如:Caffe2、Chainer、MxNet、Pytorch、Tensorflow、Deepspeed等领先的深度学习框架都已经集成了NCCL,用来加速多GPU多节点上的模型训练和推理。

在这里插入图片描述

NCCL对下操作cuda,进行内存操作、内核调用、并行计算等。
它的API继承了MPI协议,但是没有像MPI那样提供进程启动器和管理器的并行环境,因此,NCCL依赖应用程序的进程管理系统和GPU端通信系统,来实现自己引导程序。与MPI另一个不同之处在于,NCCL采用了“stream”参数,该参数可以与cuda编程模型直接集成。
与MPI和其他针对性能优化的库类似,NCCL不提供安全网络通信机制,用户需要确保NCCL在安全的网络中运行。


2.2 通信模式

NCCL开发文档

在一个具有n个CUDA设备(GPU)的网络中,每个CUDA设备都会被分配一个介于0到n-1之间的唯一rank。

2.2.1 通信模式分类

NCCL提供了broadcast、scatter、gather、all-gather、reduce、all-reduce、reduce-scatter以及点对点通信的发送/接受原语。
在这里插入图片描述
通信模式:集体通信和点对点通信。

  • 集体通信
    必须为每个rank(cuda设备)都执行相同的集合操作,使用相同的数据类型和计数,以形成一个完整的集体操作。否则,将会出现未知错误,比如挂起、数据损坏和崩溃等。

    集体通信模式:broadcast、all-gather、reduce、all-reduce、reduce-scatter。

  • 点对点通信
    自NCCL2.7起,点对点通信可在ranks之间发送任意通信模式。任何点对点通信都需要两个NCCL调用:在一个rank上调用ncclSend(),另一个rank上调用对应的ncclRecv(),以此来发送和接受相同计数和数据类型的数据报文。

    针对不同GPU对端多次ncclSend()和ncclRecv()的调用,可以融合在一起,使用ncclGroupStart()和ncclGroupEnd()将复杂的通信模式整合在一个通信Group内。

    点对点通信模式:scatter(one-to-all)、gather(all-to-one)、all-to-all或者n维空间的neighbors通信。

    Group内的点对点接口调用会阻塞,直到组内的普通calls执行完成。Group内的calls是独立运行的,不会相互阻塞,所以,将需要并发运行的calls进行合并,可以避免死锁。

2.2.2 通信模式分析

以下表示中,K表示rank数量,N表示数组大小。

  • broadcast
    该操作将A元素,从指定缓冲区(通常为root rank缓冲区)复制到所有指定的rank的缓冲区。
    在这里插入图片描述
    该网络中有4个GPU,对应 K=4 个 rank,即 rank0~rank3。root rank 提供一个大小为N数组A。经过 broadcast 操作后,每个 rank 都会接受到数组A

  • scatter one-to-all 点对点通信
    该操作根据网络中的所有指定的rank数量,将A元素平分,然后分布到所有指定的rank中。
    在这里插入图片描述
    该网络中有4个GPU,对应 K=4 个rank,root rank 提供了 K * N 的数组,分别为A、B、C、D四个数组。经过 scatter 操作后,会按照 rank index 顺序将数组A/B/C/D分布到每个rank的缓冲区中。

  • gather all-to-one 点对点通信
    该操作将分布在所有指定的rank中的数据,收集到指定rank输出缓冲区(通常为root rank缓冲区)中。
    在这里插入图片描述
    该网络中有4个GPU,对应 K=4 个rank,每个 rank 提供了 1 个大小为 N 的数组,分别为A、B、C、D四个数组。经过 gather 操作后,会按照 rank index 顺序将数组A/B/C/D收集到 root rank 的缓冲区中,形成 K * N 维度的结果。

  • all-gather
    该操作将分布在所有指定的rank中的数据,收集到输出缓冲区(通常为root rank缓冲区)中,然后将结果分发到所有指定的rank。
    在这里插入图片描述
    该网络中有4个GPU,对应 K=4 个rank,每个 rank 提供了 1 个大小为 N 的数组,分别为A、B、C、D四个数组。经过 all-gather 操作后,会按照 rank index 顺序将数组A/B/C/D收集到 root rank 的缓冲区中,形成 K * N 维度的结果,然后将结果分发到所有指定的rank中。

  • reduce
    该操作将分布在所有指定的rank中的数据,以reduce函数的形式收集到输出缓冲区(通常为root rank缓冲区)中。 常见reduce函数:sum、min、max等。在这里插入图片描述
    该网络中有4个GPU,对应 K=4 个rank,每个 rank 提供了 1 个大小为 N 的数组,分别为A、B、C、D四个数组。经过 reduce 操作后,会按照 rank index 顺序将数组A/B/C/D收集到 root rank 的缓冲区中,形成 N 维度的结果,图示中使用的是sum([A,B,C,D])函数,会将4个数组对位相加

  • all-reduce
    该操作执行与reduce相同的操作,区别在于将结果分发到所有指定的rank缓冲区中。
    reduce后跟broadcast的效果,等同于all-reduce操作。
    在这里插入图片描述
    该网络中有4个GPU,对应 K=4 个rank,每个 rank 提供了 1 个大小为 N 的数组,分别为A、B、C、D四个数组。经过 all-reduce 操作后,会按照 rank index 顺序将数组A/B/C/D收集到 root rank 的缓冲区中,形成 N 维度的结果,图示中使用的是sum([A,B,C,D])函数,会将4个数组对位相加。然后将结构分发到所有指定的rank中。

  • reduce-scatter
    该操作执行与reduce相同的操作,区别在于将结果平均分散到所有指定的rank缓冲区中。
    在这里插入图片描述
    该网络中有4个GPU,对应 K=4 个rank,每个 rank 提供了 1 个大小为 K * N 的数组,分别为Ak、Bk、Ck、Dk,(0 <= k <= 3)。经过 reduce-scatter 操作后,会按照 rank index 顺序将数组Ak/Bk/Ck/Dk收集到 root rank 的缓冲区中,形成 K * N 维度的结果,图示中使用的是sum([Ak,Bk,Ck,Dk])函数,会分别将4个数组对位相加。然后将结果平均分散到所有指定的rank中。

  • all-to-all 点对点通信
    该操作将各自的信息,以scatter的方式发送给彼此。
    效果等同于scatter/gather
    在这里插入图片描述
    该网络中有4个GPU,对应 K=4 个rank,每个 rank 提供了 1 个大小为 K * N 的数组,分别为Ak、Bk、Ck、Dk,(0 <= k <= 3)。经过 gather 操作后,会按照 rank index 顺序将数组Ak/Bk/Ck/Dk收集到 root rank 的缓冲区中,形成 K*(K*N) 维度的结果。然后将结果平均分散到所有指定的rank中。

  • neighbor exchange
    该操作交换N-dims空间中的neighbors的数据。

2.2.3 通信nccl编程实例

这一部分做一个了解即可,了解一下怎么通过nccl原语进行通信。

  1. 创建Communicator通信器

    • 首先为每个cuda设备设置一个0~n-的rank,这些设备都是Communicator通信的一部分。
    • 使用ncclCommInitRank(), ncclCommInitRankConfig() 和 ncclCommInitAll()方法可以创建Communicator objects。每一个communicator object都与固定的rank和cuda设备绑定,这些objects会被用来实现通信操作。
    • 在执行ncclCommInitRank()之前,需要先创建一个唯一的communicator
      object,作为root节点,被所有的通信进程使用,用来进行通信识别和接入2,以组成通信网络。
    • ncclGetUniqueId()方法会返回一个ID,这个ID必须广播到所有参与通信的进程。
    • ncclCommInitAll()方法可以替代上述那些繁杂的步骤。但是它仅限于单个进程中使用,不能在节点间通信。
    # 1. 创建通用的Communicator
    ncclResult_t ncclCommInitAll(ncclComm_t* comm, int ndev, const int* devlist) {
      ncclUniqueId Id;
      ncclGetUniqueId(&Id);  # 返回ID,必须通过broadcast发送到所有线程和所有GPU通信进程,发送方式有socket、MPI等并行环境。
      ncclGroupStart();  # 开始一个群组
      for (int i=0; i<ndev; i++) {
        cudaSetDevice(devlist[i]); 
        ncclCommInitRank(comm+i, ndev, Id, i); # 给每个设备分配rank。
      }
      ncclGroupEnd();  # 结束一个群组
    }
    
    # 2. 创建具有选项的Communicator
    ncclConfig_t config = NCCL_CONFIG_INITIALIZER;  # 自定义参数config
    config.blocking = 0;  # nccl在任何调用中都不会阻塞。
    config.minCTAs = 4;
    config.maxCTAs = 16;
    config.cgaClusterSize = 2;
    config.netName = "Socket";
    CHECK(ncclCommInitRankConfig(&comm, nranks, id, rank, &config));
    do {
      CHECK(ncclCommGetAsyncError(comm, &state));  # 异常处理
      // Handle outside events, timeouts, progress, ...
    } while(state == ncclInProgress);
    
  2. 使用多个ncclUniqueId创建通信器

    • ncclCommInitRankScalable()函数支持多ncclUniqueIds创建通信器。
    • 所有的 nccl rank 都必须使用相同的ncclUniqueIds数组(ncclUniqueIds顺序也要相同)。
    • 为了最佳性能,应尽可能的将ncclUniqueId平均分配给nccl rank。
      例如,如果要将 3 个 ncclUniqueId 分布在 7 个 NCCL 等级中,则第一个 ncclUniqueId 将与等级 0-2 相关联,而其他 ncclUniqueId 将与等级 3-4 和 5-6 相关联。因此,此函数将在排名 0、3 和 5 上返回 true,否则返回 false。
    bool rankHasRoot(const int rank, const int nRanks, const int nIds) {
      const int rmr = nRanks % nIds;
      const int rpr = nRanks / nIds;
      const int rlim = rmr * (rpr+1);
      if (rank < rlim) {
        return !(rank % (rpr + 1));
      } else {
        return !((rank - rlim) % rpr);
      }
    }
    
  3. 创建子通信器

    • ncclCommSplit 函数可用于基于现有通信器创建子通信器。这允许将现有 communicator 拆分为多个子分区,也可以复制现有父 communicator,甚至创建具有少量rank的单个 communicator。
    • ncclCommSplit 函数需要被原始 communicator 中的所有rank调用。如果有些没有被分配到任何子组,当它们调用 ncclCommSplit,会被NCCL_SPLIT_NOCOLOR标识。
    • 新创建的 communicator 继承父 communicator 的配置(例如非阻塞)。如果父通信器在非阻塞模式下运行,则可以通过在父通信器上调用 ncclCommAbort 来停止 ncclCommSplit 操作,然后在返回的所有的新通信器上调用。这是因为在对两个 communicator 中的任何一个进行操作期间都可能发生挂起。
    # 复制现有communicator
    int rank;
    ncclCommUserRank(comm, &rank);
    ncclCommSplit(comm, 0, rank, &newcomm, NULL);
    
    # 将现有communicator分成两半
    int rank, nranks;
    ncclCommUserRank(comm, &rank);
    ncclCommCount(comm, &nranks);
    ncclCommSplit(comm, rank/(nranks/2), rank%(nranks/2), &newcomm, NULL);
    
    # 创建一个仅包含前2个rank的communicator
    int rank;
    ncclCommUserRank(comm, &rank);
    ncclCommSplit(comm, rank<2 ? 0 : NCCL_SPLIT_NOCOLOR, rank, &newcomm, NULL);
    
  4. 多个通信器同时使用

    • NCCL 操作本身就是在执行 CUDA 调用,任何 CUDA 操作都会导致设备进行数据同步,但是NCCL 内核是阻塞的(等待数据到达),它需要等待所有的所有数据同步完成后才会进行下一步操作。所以在使用多个 NCCL 通信器的时候,需要设计好同步规则,防止死锁。
    • 不同 communicator 上的nccl操作都应该在不同的 epoch 中使用,不能在同一个epoch中进行不同的communicator操作,还需要设计锁定机制,应用程序也应确保按照rank顺序提交操作。
    • 假如多个通信操作(在不同的流上)可以适应 GPU,也可能会能进行通信工作。但是,如果 NCCL 操作使用多个 CUDA 块,或 NCCL 集合中使用的一些调用来操作设备同步(例如,动态分配一些 CUDA 内存),通信则会随时中断。
  5. 通信器工作状态

    • ncclCommFinalize 会将通信器从 ncclSuccess 状态转换为 ncclInProgress 状态
      当 ncclInProgress 状态时,开始在后台处理所有操作,并且,也会同步与其他rank通信相关的资源。所有未完成的操作和与 communicator 相关的网络资源也会调用该方法进行刷新和释放。
    • 当完成所有 NCCL 操作后,通信器将转换为 ncclSuccess 状态。
    • 可以使用 ncclCommGetAsyncError 查询通信器工作状态。
    • 如果 communicator 标记为非阻塞,则此操作为非阻塞;否则,它将阻塞。
  6. 销毁通信器
    当 communicator 完成后,可以调用ncclCommDestory方法来释放所有资源,包括communicator本身。
    当通信器状态为ncclSuccess,调用ncclCommDestory时,如果调用是阻塞的,调用则会被阻止执行,所以需要保证调用是非阻塞的。在任何情况下,ncclCommDestory的调用都会释放通信器资源并返回,并且在返回后不再访问通信器。


2.3 NCCL通信算法

2.3.1 环形算法 ring algorithm

1)问题引入
在进入正式内容之前,我们来研究一个小问题:在一个GPU物理拓扑中,如何优化其通信性能?

首先,有一个简单的GPU物理拓扑结构,其中,GPU0~GPU3通过一个PCIe Switch连接到CPU。
参见:NVIDIA Blog:NCCL通信优化
在这里插入图片描述
PCIe-GPU物理拓扑结构图。

有了GPU物理拓扑结构后,我们想将数据从GPU0广播到PCIe拓扑中所有其他GPU。

在这种拓扑结构中,通常采用两步树算法(two-step tree algorithm)进行通信,即:首先数据从GPU0发送到GPU1,然后将这俩GPU将数据发送到其余的处理器。

这种两步树算法又有以下两种实现方式:

  • 第一种
    在第一步中,将数据从GPU0发送到GPU1,在第二步中,从GPU0发送到GPU2、从GPU1发送到GPU3。
  • 第二种
    在第一步中,将数据从GPU0发送到GPU2,在第二步中,从GPU0发送到GPU1、GPU2发送到GPU3。

通过拓扑检查,第二种拓扑是首选,因为将数据从GPU0同时发送到其他GPU,会导致上层PCIe链路发生争用,从而是有效带宽减半。

注意,我们此处所说的算法拓扑结构,是逻辑拓扑,与前面所说的物理拓扑结构不同。

为了优化广播带宽,更好的方法是将PCIe拓扑(物理拓扑结构)看做一个环(算法逻辑拓扑)。然后,将输入数据分成小的chunks,从GPU0到GPU3进行广播。实践证明,环形算法几乎适用于所有物理拓扑结构,可以提供最佳的通信带宽。同时,环的顺序也至关重要。
在这里插入图片描述
2)多机多卡环形通信

2.3.2 树形算法 tree algorithm

1)double binary tree



本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2232118.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

最新PHP校园源码系统开发(多客社区校园系统源码全套APP源码附搭建教程)

最新PHP校园源码系统开发、多客社区校园系统源码以及全套APP源码附搭建教程的需求 一、最新PHP校园源码系统开发 技术栈选择&#xff1a; 后端&#xff1a;PHP&#xff08;建议使用PHP 7.2或更高版本&#xff09;数据库&#xff1a;MySQL&#xff08;建议使用MySQL 5.6或更高版…

Netty 组件介绍 - ByteBuf

直接内存&堆内存 ByteBuf buffer ByteBufAllocator.DEFAULT.heapBuffer(10);ByteBuf byteBuf ByteBufAllocator.DEFAULT.directBuffer(10); 组成 ByteBuf维护了两个不同的索引&#xff0c;一个用于读取&#xff0c;一个用于写入。 写入 内存回收 堆内存使用的是JVM内…

Java项目实战II基于Java+Spring Boot+MySQL的高校办公室行政事务管理系统(源码+数据库+文档)

目录 一、前言 二、技术介绍 三、系统实现 四、文档参考 五、核心代码 六、源码获取 全栈码农以及毕业设计实战开发&#xff0c;CSDN平台Java领域新星创作者&#xff0c;专注于大学生项目实战开发、讲解和毕业答疑辅导。获取源码联系方式请查看文末 一、前言 在高等教育…

word mathml 创建粗体字母快捷键

在 mathml 中达到latex中 \mathbf{A} 的效果 由于word本身不支持这个命令&#xff0c;所以打算用快捷键实现 快捷键的功能是加粗光标前一个字目 1. Alt F8 打开宏&#xff0c;如果打不开可以尝试 Alt Fn F8 2. 输入 BoldPreviousCharacter 新建宏&#xff1a; Sub Bold…

redis实现分布式锁,go实现完整code

Redis分布式锁 Redis 分布式锁是一种使用 Redis 数据库实现分布式锁的方式&#xff0c;可以保证在分布式环境中同一时间只有一个实例可以访问共享资源。 实现机制 以下是实现其加锁步骤&#xff1a; 获取锁 在 Redis 中&#xff0c;一个相同的key代表一把锁。是否拥有这把锁&…

flink 自定义kudu connector中使用Metrics计数平均吞吐量,并推送到自定义kafkaReporter

文章目录 前言1. Registering metrics2. Metrics 的类型2.1 counter2.2 Gauge2.3 Histogram2.4 meter 3. 指标划分3.1 指标所属的范围3.2 默认所属 4. 自定义kudu connector中使用Metrics4.1 sink算子继承RichFunction4.2 注册指标4.3 计数逻辑4.4 自定义Reporter&#xff0c;推…

柯桥日语培训|N1常考语法:~(よ)うが/(よ)うと——“无论……都……”

&#xff5e;&#xff08;よ&#xff09;うが&#xff0f;&#xff08;よ&#xff09;うと 接续&#xff1a;動意向形&#xff0f;イ形→かろう&#xff0f;名、ナ形→だろう・であろう&#xff0b;が&#xff0f;と 说明&#xff1a;表示假定条件的逆接&#xff0c;无论前项如…

一个基于Zookeeper+Dubbo3+SpringBoot3的完整微服务调用程序示例代码

一、关于 Dubbo3 的一些优化改进介绍 Dubbo3 的官方文档地址&#xff1a; https://cn.dubbo.apache.org/zh-cn/overview/what/overview/ 其针对一些问题进行了优化和改变。个人整理3个小的方面&#xff1a; 1. 在服务注册方面使用 DubboService 注解&#xff0c;不再使用 Servi…

电能表预付费系统-标准传输规范(STS)(33)

6.5.4.4 Key rotation process 按键旋转过程 The entire key is rotated one bit position to the left as illustrated in Figure 15.整个密钥向左旋转一个位&#xff0c;如图15所示。 6.5.4.5 Worked example to generate TokenData for a TransferCredit token using the S…

时序数据库是什么:概念、特点与分类简析

时序数据与时序数据库的“保姆级”科普&#xff01; 作为将数据价值转化为产能能效的“核心大脑”&#xff0c;数据库的发展依然处于加速期&#xff0c;面向不同数据类型的数据库类型也在不断增加。 在众多细分领域数据库类型中&#xff0c;伴随制造业数字化转型的行业趋势和多…

【创建型】单例模式

单例模式使用的场景&#xff1a;需要频繁的进行创建和销毁的对象、创建对象时耗时过多或耗费资源过多(即&#xff1a;重量级对象)&#xff0c;但又经常用到的对象、工具类对象、频繁访问数据库或文件的对象(比如数据源、session工厂等) 1. 饿汉式&#xff08;静态常量&#xf…

6.0、静态路由

路由器最主要的功能就是转发数据包。路由器转发数据包时需要查找路由表&#xff08;你可以理解为地图&#xff09;&#xff0c;管理员可以直接手动配置路由表&#xff0c;这就是静态路由。 1.什么是路由&#xff1f; 在网络世界中&#xff0c;路由是指数据包在网络中的传输路…

工业通信网关的各项功能解析-天拓四方

在工业自动化和智能制造的浪潮中&#xff0c;工业通信网关作为连接工业现场与互联网的重要桥梁&#xff0c;发挥着至关重要的作用。它不仅实现了不同网络协议之间的转换&#xff0c;还在数据采集、设备控制、网络管理等方面展现出强大的功能。 一、协议转换功能 工业通信网关…

数据结构与算法——Java实现 53.力扣938题——二叉搜索树的范围和

生命的意义 在于活出自我 而不是成为别人眼中的你 —— 24.11.3 938. 二叉搜索树的范围和 给定二叉搜索树的根结点 root&#xff0c;返回值位于范围 [low, high] 之间的所有结点的值的和。 示例 1&#xff1a; 输入&#xff1a;root [10,5,15,3,7,null,18], low 7, high 15 …

TensorRT-LLM的k8s弹性伸缩部署方案

Scaling LLMs with NVIDIA Triton and NVIDIA TensorRT-LLM Using Kubernetes | NVIDIA Technical Blog 一共涉及4个k8s组件&#xff1a; 1. Deployment&#xff1a;跑起来N个pod&#xff1b;指定NVIDIA官方的triton&trt-llm的docker image&#xff0c;指定好model放在哪个…

高亮无惧烈日,强力巨彩租赁屏点亮户外“视”界

在户外显示领域&#xff0c;一款性能出色、适应性强、维护便捷的租赁屏无疑是众多主办方和广告商的首选。强力巨彩旗下的幻云系列租赁屏具备画面清晰、无水波纹、性能稳定、高亮度等诸多优势&#xff0c;可应用于各大户外显示场所&#xff0c;是户外租赁屏市场的明星产品。   …

批量删除redis数据【亲测可用】

文章目录 引言I redis客户端基础操作key的命名规则批量查询keyII 批量删除key使用连接工具进行分组shell脚本示例其他方法III 知识扩展:控制短信验证码获取频率引言 批量删除redis数据的应用: 例如缓存数据使用了新的key存储,需要删除废弃的key。RedisTemplate的key序列化采…

Mysql开发规范

开发规范 对象命名 命名规范的对象&#xff0c;是指数据库SCHEMA、表TABLE、字段COLUMN、索引INDEX、约束CONSTRAINTS等 【强制】凡是需要命名的对象&#xff0c;其标识符不能超过30个字符【强制】名称必须以英文字母开头&#xff0c;不得以 _(下划线) 作为起始和终止字母【…

Web应用性能测试工具 - httpstat

在数字化时代&#xff0c;网站的性能直接影响用户体验和业务成功。你是否曾经在浏览网页时&#xff0c;遇到加载缓慢的困扰&#xff1f;在这个快速变化的互联网环境中&#xff0c;如何快速诊断和优化Web应用的性能呢&#xff1f;今天&#xff0c;我们将探讨一个强大的工具——h…

(57)MATLAB使用迫零均衡器和MMSE均衡器的BPSK调制系统仿真

文章目录 前言一、仿真测试模型二、仿真代码三、仿真结果四、迫零均衡器和MMSE均衡器的实现1.均衡器的MATLAB实现2.均衡器的性能测试 总结 前言 本文给出仿真模型与MATLAB代码&#xff0c;分别使用具有ISI的三个不同传输特性的信道&#xff0c;仿真测试了使用迫零均衡器和MMSE…