LaViT:这也行,微软提出直接用上一层的注意力权重生成当前层的注意力权重 | CVPR 2024

news2024/9/22 17:19:46

Less-Attention Vision Transformer利用了在多头自注意力(MHSA)块中计算的依赖关系,通过重复使用先前MSA块的注意力来绕过注意力计算,还额外增加了一个简单的保持对角性的损失函数,旨在促进注意力矩阵在表示标记之间关系方面的预期行为。该架构你能有效地捕捉了跨标记的关联,超越了基线的性能,同时在参数数量和每秒浮点运算操作(FLOPs)方面保持了计算效率。

来源:晓飞的算法工程笔记 公众号

论文: You Only Need Less Attention at Each Stage in Vision Transformers

  • 论文地址:https://arxiv.org/abs/2406.00427

Introduction


  近年来,计算机视觉经历了快速的增长和发展,主要得益于深度学习的进步以及大规模数据集的可获得性。在杰出的深度学习技术中,卷积神经网络(Convolutional Neural Networks, CNNs)被证明特别有效,在包括图像分类、目标检测和语义分割等广泛应用中展现了卓越的性能。

  受到Transformer在自然语言处理领域巨大成功的启发,ViTVision Transformers)将每幅图像划分为一组标记。这些标记随后被编码以生成一个注意力矩阵,作为自注意力机制的基础组成部分。自注意力机制的计算复杂度随着标记数量的增加而呈平方增长,且随着图像分辨率的提高,计算负担变得更加沉重。一些研究人员尝试通过动态选择或标记修剪来减少标记冗余,以减轻注意力计算的计算负担。这些方法在性能上已证明与标准ViT相当。然而,涉及标记减少和修剪的方法需要对标记选择模块进行细致设计,可能导致关键标记的意外丢失。在本研究中,作者探索了不同的方向,并重新思考自注意力的机制。发现在注意力饱和问题中,随着ViTs层数的逐渐加深,注意力矩阵往往保持大部分不变,重复前面层中观察到的权重分配。考虑到这些因素,作者提出以下问题:

在网络的每个阶段,从开始到结束,是否真的有必要始终一致地应用自注意力机制?

  在本文中,作者提出通过引入少注意力ViTLess-Attention Vision Transformer)来修改标准ViT的基本架构。框架由原始注意力(Vanilla Attention, VA)层和少注意力(Less Attention, LA)层组成,以捕捉长范围的关系。在每个阶段,专门计算传统的自注意力,并将注意力分数存储在几个初始的原始注意力(VA)层中。在后续的层中,通过利用先前计算的注意力矩阵高效地生成注意力分数,从而减轻与自注意力机制相关的平方计算开销。此外,在跨阶段的降采样过程中,在注意力层内集成了残差连接,允许保留在早期阶段学习到的重要语义信息,同时通过替代路径传输全局上下文信息。最后,作者仔细设计了一种新颖的损失函数,从而在变换过程中保持注意力矩阵的对角性。这些关键组件使作者提出的ViT模型能够减少计算复杂性和注意力饱和,从而实现显著的性能提升,同时降低每秒浮点运算次数(FLOPs)和显著的吞吐量。

  为验证作者提出的方法的有效性,在各种基准数据集上进行了全面的实验,将模型的性能与现有最先进的ViT变种(以及最近的高效ViT)进行了比较。实验结果表明,作者的方法在解决注意力饱和并在视觉识别任务中取得优越性能方面非常有效。

  论文的主要贡献总结如下:

  1. 提出了一种新颖的ViT架构,通过重新参数化前面层计算的注意力矩阵生成注意力分数,这种方法同时解决了注意力饱和和相关的计算负担。

  2. 此外,提出了一种新颖的损失函数,旨在在注意力重新参数化的过程中保持注意力矩阵的对角性。作者认为这一点对维护注意力的语义完整性至关重要,确保注意力矩阵准确反映输入标记之间的相对重要性。

  3. 论文的架构在包括分类、检测和分割在内的多个视觉任务中,始终表现优异,同时在计算复杂度和内存消耗方面具有类似甚至更低的特点,胜过几种最先进的ViTs

Methodology


Vision Transformer

  令 x ∈ R H × W × C \mathbf{x} \in \mathbb{R}^{H \times W \times C} xRH×W×C 表示一个输入图像,其中 H × W H \times W H×W 表示空间分辨率, C C C 表示通道数。首先通过将图像划分为 $N = \frac{HW}{p^{2}} $ 个块来对图像进行分块,其中每个块 P i ∈ R p × p × C ( i ∈ { 1 , … , N } ) P_i \in \mathbb{R}^{p \times p \times C}\left(i \in \{1, \ldots, N\} \right) PiRp×p×C(i{1,,N}) 的大小为 p × p p \times p p×p 像素和 C C C 通道。块大小 p p p 是一个超参数,用于确定标记的粒度。块嵌入可以通过使用步幅和卷积核大小均等于块大小的卷积操作提取。然后,每个块通过不重叠的卷积投影到嵌入空间 Z ∈ R N × D \boldsymbol{Z} \in \mathbb{R}^{N\times{D}} ZRN×D ,其中 D D D 表示每个块的维度。

  • Multi-Head Self-Attention

  首先提供一个关于处理块嵌入的经典自注意力机制的简要概述,该机制在多头自注意力块(MHSAs)的框架内工作。在第 l l lMHSA块中,输入 Z l − 1 , l ∈ { 1 , ⋯   , L } \boldsymbol{Z}_{l-1}, l \in \{1,\cdots, L\} Zl1,l{1,,L} 被投影为三个可学习的嵌入 { Q , K , V } ∈ R N × D \{\mathbf{Q,K,V}\} \in \mathbb{R}^{N \times D} {Q,K,V}RN×D 。多头注意力旨在从不同的视角捕捉注意力;为简单起见,选择 H H H 个头,每个头都是一个维度为 N × D H N \times \frac{D}{H} N×HD 的矩阵。第 h h h 个头的注意力矩阵 A h \mathbf{A}_h Ah 可以通过以下方式计算:

KaTeX parse error: Undefined control sequence: \label at position 145: …^{N \times N}. \̲l̲a̲b̲e̲l̲{eq:attn} \end{…

A h , Q h \mathbf{A}_h, \mathbf{Q}_h Ah,Qh K h \mathbf{K}_h Kh 分别是第 h h h 个头的注意力矩阵、查询和键。还将值 V \mathbf{V} V 分割成 H H H 个头。为了避免由于概率分布的锐性导致的梯度消失,将 Q h \mathbf{Q}_h Qh K h \mathbf{K}_h Kh 的内积除以 d \sqrt{d} d ( d = D / H d = D/H d=D/H )。注意力矩阵被拼接为:

KaTeX parse error: Undefined control sequence: \label at position 224: …). \end{split} \̲l̲a̲b̲e̲l̲{eq:concat} \en…

  在空间分割的标记之间计算的注意力,可能会引导模型关注视觉数据中最有价值的标记。随后,将加权线性聚合应用于相应的值 V \mathbf{V} V

KaTeX parse error: Undefined control sequence: \label at position 90: …^{N \times D}. \̲l̲a̲b̲e̲l̲{eq:val-feats} …

  • Downsampling Operation

  受到CNN中层次架构成功的启发,一些研究将层次结构引入到ViTs中。这些工作将Transformer块划分为 M M M 个阶段,并在每个Transformer阶段之前应用下采样操作,从而减少序列长度。在论文的研究中,作者采用了一个卷积层进行下采样操作,卷积核的大小和步幅都设置为 2 2 2 。该方法允许在每个阶段灵活调整特征图的尺度,从而建立一个与人类视觉系统的组织相一致的Transformer层次结构。

The Less-Attention Framework

  整体框架如图1所示。在每个阶段,分两步提取特征表示。在最初的几个Vanilla Attention(VA) 层中,进行标准的多头自注意力(MHSA)操作,以捕捉整体的长距离依赖关系。随后,通过对存储的注意力分数应用线性变换,模拟注意力矩阵,以减少平方计算并解决接下来的低注意力(LA)层中的注意力饱和问题。在这里,将第 m m m 个阶段的初始 l l l -th VA 层的 Softmax \textrm{Softmax} Softmax 函数之前的注意力分数表示为 A m VA , l \mathbf{A}^{\text{VA},l}_m AmVA,l ,它是通过以下标准程序计算的:

KaTeX parse error: Undefined control sequence: \label at position 135: …{\text{VA}}_m. \̲l̲a̲b̲e̲l̲{eq:init} \end{…

  这里, Q m l \mathbf{Q}_m^l Qml K m l \mathbf{K}_m^l Kml 分别表示来自第 m m m 个阶段第 l l l 层的查询和键,遵循来自前一阶段的下采样。而 L m VA L^{\text{VA}}_m LmVA 用于表示VA层的数量。在最初的原始注意力阶段之后,丢弃传统的平方MHSA,并对 A m VA \mathbf{A}^\textrm{VA}_m AmVA 应用变换,以减少注意力计算的数量。这个过程包括进行两次线性变换,中间夹一个矩阵转置操作。为了说明,对于该阶段的第 l l l 层( l > L m VA l > L^{\text{VA}}_m l>LmVA ,即LA层)的注意力矩阵:

A m l = Ψ ( Θ ( A m l − 1 ) T ) T ,    L m VA < l ≤ L m , Z LA , l = Softmax ( A m l ) V l . \begin{equation} \begin{aligned} &\mathbf{A}^{l}_m = \Psi(\Theta(\mathbf{A}^{l-1}_m)^\mathsf{T})^\mathsf{T}, ~~ L^{\text{VA}}_m<l \leq L_m,\\ &\mathbf{Z}^{\text{LA},l} = \textrm{Softmax}(\mathbf{A}^l_m)\mathbf{V}^l. \end{aligned} \end{equation} Aml=Ψ(Θ(Aml1)T)T,  LmVA<lLm,ZLA,l=Softmax(Aml)Vl.

  在这个上下文中, Ψ \Psi Ψ Θ \Theta Θ 表示维度为 R N × N \mathbb{R}^{N\times{N}} RN×N 的线性变换层。这里, L m L_m Lm L m VA L_m^{\text{VA}} LmVA 分别表示第 m m m 个阶段的层数和VA层的数量。在这两个线性层之间插入转置操作的目的是保持矩阵的相似性行为。这个步骤是必需的,因为单层中的线性变换是逐行进行的,这可能导致对角特性丧失。

Residual-based Attention Downsampling

  当计算在分层ViTViTs)中跨阶段进行时,通常会对特征图进行下采样操作。虽然该技术减少了标记数量,但可能会导致重要上下文信息的丧失。因此,论文认为来自前一阶段学习的注意力亲和度对于当前阶段在捕捉更复杂的全局关系方面可能是有利的。受到ResNet的启发,后者引入了快捷连接以减轻特征饱和问题,作者在架构的下采样注意力计算中采用了类似的概念。通过引入一个短路连接,可以将固有的偏差引入当前的多头自注意力(MHSA)块。这使得前一阶段的注意力矩阵能够有效引导当前阶段的注意力计算,从而保留重要的上下文信息。

  然而,直接将短路连接应用于注意力矩阵可能在这种情况下面临挑战,主要是由于当前阶段和前一阶段之间注意力维度的不同。为此,作者设计了一个注意力残差(AR)模块,该模块由深度卷积(DWConv)和一个 Conv 1 × 1 \textrm{Conv}_{1\times1} Conv1×1 层构成,用以在保持语义信息的同时对前一阶段的注意力图进行下采样。将前一阶段(第 m − 1 m-1 m1 阶段)的最后一个注意力矩阵(在 L m − 1 L_{m-1} Lm1 层)表示为 A m − 1 last \textbf{A}_{m-1}^{\text{last}} Am1last ,将当前阶段(第 m m m 阶段)的下采样初始注意力矩阵表示为 A m init \textbf{A}_m^\text{init} Aminit A m − 1 last \textbf{A}_{m-1}^{\text{last}} Am1last 的维度为 R B × H × N m − 1 × N m − 1 \mathbb{R}^{B\times{H}\times{N_{m-1}}\times{N_{m-1}}} RB×H×Nm1×Nm1 N m − 1 N_{m-1} Nm1 表示第 m − 1 m-1 m1 阶段的标记数量)。将多头维度 H H H 视为常规图像空间中的通道维度,因此通过 DWConv \textrm{DWConv} DWConv 操作符( stride = 2 ,  kernel size = 2 \textrm{stride}=2,\ \textrm{kernel size}=2 stride=2, kernel size=2 ),可以在注意力下采样过程中捕获标记之间的空间依赖关系。经过 DWConv \textrm{DWConv} DWConv 变换后的输出矩阵适合当前阶段的注意力矩阵的尺寸,即 R B × H × N m × N m ( N m = N m − 1 2 ) \mathbb{R}^{B\times{H}\times{N_m}\times{N_m}} (N_m = \frac{N_{m-1}}{2}) RB×H×Nm×Nm(Nm=2Nm1) 。在对注意力矩阵进行深度卷积后,再执行 Conv 1 × 1 \text{Conv}_{1\times1} Conv1×1 ,以便在不同头之间交换信息。

  论文的注意力下采样过程如图2所示,从 A m − 1 last \textbf{A}_{m-1}^\text{last} Am1last A m init \textbf{A}_{m}^\text{init} Aminit 的变换可以表示为:

KaTeX parse error: Undefined control sequence: \label at position 147: …m-1}))\right), \̲l̲a̲b̲e̲l̲{eq:residual} \…

  其中 LS \textrm{LS} LS 是在CaiT中引入的层缩放操作符,用以缓解注意力饱和现象。 A m VA \mathbf{A}^{\text{VA}}_m AmVA 是第 m m m 阶段第一层的注意力得分,它是通过将标准多头自注意力(MHSA)与公式4和由公式6计算的残差相加得出的。

  论文的注意力下采样模块受两个基本设计原则的指导。首先,利用 DWConv \text{DWConv} DWConv 在下采样过程中捕获空间局部关系,从而实现对注意力关系的高效压缩。其次,采用 Conv 1 × 1 \textrm{Conv}_{1\times1} Conv1×1 操作在不同头之间交换注意力信息。这一设计至关重要,因为它促进了注意力从前一阶段有效传播到后续阶段。引入残差注意力机制只需进行少量调整,通常只需在现有的ViT主干中添加几行代码。值得强调的是,这项技术可以无缝应用于各种版本的Transformer架构。唯一的前提是存储来自上一层的注意力得分,并相应地建立到该层的跳跃连接。通过综合的消融研究,该模块的重要性将得到进一步阐明。

Diagonality Preserving Loss

  作者通过融入注意力变换算子,精心设计了Transformer模块,旨在减轻计算成本和注意力饱和的问题。然而,仍然存在一个紧迫的挑战——确保变换后的注意力保留跨Token之间的关系。众所周知,对注意力矩阵应用变换可能会妨碍其捕捉相似性的能力,这在很大程度上是因为线性变换以行的方式处理注意力矩阵。因此,作者设计了一种替代方法,以确保变换后的注意力矩阵保留传达Token之间关联所需的基本属性。一个常规的注意力矩阵应该具备以下两个属性,即对角性和对称性:

KaTeX parse error: Undefined control sequence: \label at position 146: … \end{aligned} \̲l̲a̲b̲e̲l̲{eq:property} \…

  因此,设计了第 l l l 层的对角性保持损失,以保持这两个基本属性如下所示:

L DP , l = ∑ i = 1 N ∑ j = 1 N ∣ A i j − A j i ∣ + ∑ i = 1 N ( ( N − 1 ) A i i − ∑ j ≠ i A j ) . \begin{equation} \begin{split} {\mathcal{L}_{\textrm{DP},l}} &= \sum_{i=1}^N\sum_{j=1}^N\left|\mathbf{A}_{ij} -\mathbf{A}_{ji}\right| \\ &+ \sum_{i=1}^N((N-1)\mathbf{A}_{ii}-\sum_{j\neq i}\mathbf{A}_{j}). \end{split} \end{equation} LDP,l=i=1Nj=1NAijAji+i=1N((N1)Aiij=iAj).

  在这里, L DP \mathcal{L}_\textrm{DP} LDP 是对角性保持损失,旨在维护公式8中注意力矩阵的属性。在所有变换层上将对角性保持损失与普通的交叉熵 (CE) 损失相结合,因此训练中的总损失可以表示为:

[ b ] L total = L CE + ∑ m = 1 M ∑ l = 1 L m L DP , l , L CE = cross-entropy ( Z Cls , y ) , \begin{equation} \begin{aligned}[b] \mathcal{L}_\textrm{total} &= \mathcal{L}_\textrm{CE} + \sum_{m=1}^M\sum_{l=1}^{L_m}\mathcal{L}_{\textrm{DP},l}, \\ \mathcal{L}_\textrm{CE} &= \textrm{cross-entropy}(Z_\texttt{Cls}, y), \end{aligned} \end{equation} [b]LtotalLCE=LCE+m=1Ml=1LmLDP,l,=cross-entropy(ZCls,y),

  其中, Z Cls Z_\texttt{Cls} ZCls 是最后一层表示中的分类标记。

Complexity Analysis

  论文的架构由四个阶段组成,每个阶段包含 L m L_m Lm 层。下采样层应用于每个连续阶段之间。因此,传统自注意力的计算复杂度为 O ( N m 2 D ) \mathcal{O}(N_m^2{D}) O(Nm2D) ,而相关的K-Q-V转换则带来了 O ( 3 N m D 2 ) \mathcal{O}(3N_mD^2) O(3NmD2) 的复杂度。相比之下,论文的方法在变换层内利用了 N m × N m N_m\times N_m Nm×Nm 的线性变换,从而避免了计算内积的需要。因此,变换层中注意力机制的计算复杂度降至 O ( N m 2 ) \mathcal{O}(N_m^2) O(Nm2) ,实现了 D D D 的减少因子。此外,由于论文的方法在 Less-Attention中只计算查询嵌入,因此K-Q-V转换复杂度也减少了3倍。

  在连续阶段之间的下采样层中,以下采样率2为例,注意力下采样层中DWConv的计算复杂度可以计算为 Complexity = 2 × 2 × N m 2 × N m 2 × D = O ( N m 2 D ) \textrm{Complexity} = 2 \times 2 \times \frac{N_m}{2} \times \frac{N_m}{2} \times D = \mathcal{O}(N_m^2D) Complexity=2×2×2Nm×2Nm×D=O(Nm2D) 。同样,注意力残差模块中 Conv 1 × 1 \textrm{Conv}_{1\times1} Conv1×1 操作的复杂度也是 O ( N m 2 D ) \mathcal{O}(N_m^2D) O(Nm2D) 。然而,重要的是,注意力下采样在每个阶段仅发生一次。因此,对比Less-Attention方法所实现的复杂度减少,这些操作引入的额外复杂度可以忽略不计。

Experiments




如果本文对你有帮助,麻烦点个赞或在看呗~
更多内容请关注 微信公众号【晓飞的算法工程笔记】

work-life balance.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2097274.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

注意力机制(Attention mechanism)(中篇)

模型的输入是一组向量&#xff0c;它可以是文字&#xff0c;可以是语音&#xff0c;可以是图。而输出有三种可能性&#xff0c; 第一种可能性是每一个向量都有一个对应的标签。如图1所示&#xff0c;当模型看到输入是4个向 量的时候&#xff0c;它就要输出4个标签。如果是回归问…

React项目通过jsmind实现思维导图以及相关功能

jsMind jsMind 是一个用于显示和编辑思维导图的纯 JavaScript 类库。它基于 Canvas 和 SVG 进行设计&#xff0c;能够在现代浏览器中高效地运行。jsMind 以 BSD 协议开源&#xff0c;这意味着可以在遵守该协议的前提下&#xff0c;将其嵌入到任何项目中使用。 功能特点 jsMi…

从0到1搭建用户管理系统

手把手教你搭建前后端框架 新手对于很多成熟框架&#xff0c;不知道如何搭建的&#xff0c;不知道如何实现等等&#xff0c;忙碌之余&#xff0c;写了一篇博客 手把手教你搭建前后端框架源码&#xff0c; springbootmysqlelementuivue 从0到1&#xff0c;搭建springboot框架&am…

windows下mysql启动失败无报错(已解决)

环境&#xff1a;win server 2012R2 mysql版本&#xff1a;8.0 今天使用net stop mysql;net start mysql进行重启&#xff0c;发现重启失败&#xff0c;而且提示服务没有任何错误。 接着就检查了所有的常见问题&#xff08;如端口占用、配置文件路径错误等&#xff09;仍然无…

024、架构_资源_主机

摘要 在主机管理界面,可查看 GoldenDB 使用的主机信息,可对主机执行新增、编辑、删除操作。 主机列表 选择菜单[资源管理→主机管理],进入主机列表界面。 新增主机(单个、批量) 新增主机流程: 添加

hexo d 报错

上学期四月份左右用hexogithub搭了一个简单的博客&#xff0c;开学回来发现运行hexo d就报错&#xff0c;试了好几种网上的方法解决。&#xff08;虽然好使了&#xff0c;但还是没弄明白啥原理&#xff0c;难道是token过期就不好使吗&#xff1f;&#xff09; 奇妙的解决方案 …

WD100电磁铁-国家实验室方案

根据合肥国家实验室磁场要求&#xff0c;上海天端实业有限公司设计制造WD100电磁铁&#xff0c;参数如下 水冷WD100电磁铁参数资料 产品规格 水冷型WD-100型电磁铁&#xff0c;卧式座放&#xff0c;磁场方向水平&#xff1b; 气隙双向可调&#xff0c;可调范围0-100mm&am…

【GeoScenePro】Generic Server Error

错误 解决方案 在portal中进行知识图谱许可授权

C语言指针进阶一:(字符指针,数组指针,指针数组,函数指针)

字符指针 在指针类型中我们知道字符指针类型&#xff0c;一般就是用于 char 的&#xff1a; int main() {char ch w;char* p &ch;*p a;return 0;} 还有一种使用方法&#xff1a; int main() {const char* pstr "hello bit";printf("%s\n", p…

亚马逊、temu自养号采购大额下单需要解决哪些技术要点?

自养号采购下单在跨境电商平台中是一个复杂且需要精细操作的过程&#xff0c;主要涉及多个技术要点以确保账号安全、提高下单成功率&#xff0c;并避免被平台风控系统识别。以下是需要解决的关键技术要点&#xff1a; 1. 纯净的测评环境 服务器与IP&#xff1a;使用高纯净度的…

java实现发邮件功能的方式?如何使用java?

java实现发邮件的配置步骤&#xff1f;如何用java实现发信功能&#xff1f; Java实现发邮件功能是一个非常常见且重要的需求。无论是用于用户注册确认、密码重置还是系统通知&#xff0c;Java实现发邮件功能都能提供强大的支持。AokSend将详细介绍几种常用的Java实现发邮件功能…

模板方法详解

1.基本介绍 模板方法模式&#xff08;Template Method Pattern&#xff09;&#xff0c;又叫模板模式(Template Pattern)&#xff0c; 在一个抽象类公开定义了执行 它的方法的模板。它的子类可以按需要重写方法实现&#xff0c;但调用将以抽象类中定义的方式进行。简单说&…

【系统分析师】-计算题-净现值与投资回报率

1、某企业准备开发一个信息管理系统&#xff0c;其生存周期为5年。该系统的预计开发成本、预计的年运行/维护成本&#xff0c;以及预计的收益如下表所示&#xff08;其中带括号的数据表示负值&#xff09;。 问题1 &#xff08;1&#xff09;目前许多管理人员将投资的净现值作为…

Ribbon负载均衡底层原理

springcloude服务实例与服务实例之间发送请求&#xff0c;首先根据服务名注册到nacos&#xff0c;然后发送请求&#xff0c;nacos可以根据服务名找到对应的服务实例。 SpringCloudRibbon的底层采用了一个拦截器&#xff0c;拦截了openfeign发出的请求&#xff0c;对地址做了修…

Qt 实现不规则的部件或者窗口

1、实现不规则的部件 1.1 工程目录 1.2 界面实现 1.3 widget.cpp #include "widget.h" #include <QPixmap> #include <QBitmap> #include "ui_widget.h"Widget::Widget(QWidget *parent): QWidget(parent), ui(new Ui::Widget) {ui->set…

AI人工智能_Prompt提示词工程如何生成API接口文档

AI人工智能_Prompt提示词工程如何生成API接口文档&#xff1f;在与AI大模型的交互中&#xff0c;每当我们输入一段文字&#xff0c;无论是问题、命令还是陈述&#xff0c;这段文字就是一个Prompt。 Prompt提示词工程&#xff08;Prompt Engineering&#xff09;是一种技术或方…

【C++】—— string 类的了解与使用

【CPP】—— string类的了解与使用 1、 为什么学习string 类1.1、 C语言中的字符串1.2、 面试题中更多以 string 类出现 2、 标准库中的 string 类3、 string 的默认成员函数3.1、 string 的构造与拷贝构造3.2、 string 的赋值重载3.3、 string 的析构函数 4、 operator[ ]4.1、…

ADAS---基于检测框的单目测距方法

1.1.模型求解法方法解读&#xff1a; Yolo模型可以输出被检测物体的置信度、类别及检测框的中心点坐标(xc,yc)及宽高(w,h)等信息&#xff0c;选取车辆检测框底部的中点作为距离测量的特征点&#xff0c;其计算公式如下&#xff1a; 车辆测距示意图如下&#xff1a; 图中&#…

Zabbix之ubuntu环境下最新版zabbix-server7.0安装

一、zabbix7.0简介 Zabbix 7.0 是 Zabbix 系列中的一个主要版本&#xff0c;提供了增强的监控功能、改进的性能和扩展的可用性。Zabbix 是一个开源的企业级监控解决方案&#xff0c;用于监控服务器、虚拟机、网络设备、应用程序、服务等各类 IT 基础设施。Zabbix 7.0 继承了之前…

基于ZigBee的老人家庭监护报警设计

1 整体方案设计 本设计老人家庭监护报警系统的整体架构如图2.1所示&#xff0c;包括终端节点、协调器、上位机三个部分&#xff0c;其各个部分功能如下&#xff1a; 终端节点&#xff1a;以CC2530单片机为控制核心&#xff0c;结合心率传感器、DS18B20温度传感器、压力传感器…