可变形注意力转换器综述

news2024/11/27 1:19:37

这篇文章基于本文的发现

一、说明

        关于注意力机制,关于transformer等存在大量的研究和尝试,这些研究有的被沙汰,有的被采用并发扬光大,本篇对可变卷积、可变局部注意力机制和全局注意力机制做详细解释。因为这些模型规模巨大,环节琐碎,需要一点点积累才能掌握全局。本文不力求面向宏大叙事,而是就注意力机制的变革进行有限的注解。

二、文中术语注解

术语和缩写:

  • Pyramid Vision Transformer (PVT)
  • Vision Transformer (ViT)
  • Deformable Attention Transformer (DAT)
  • Deformable convolution network (DCN)
  • Region of Interest (RoI)

术语的注解:

Pyramid Vision Transformer (PVT):
        (PVT)是一种新的视觉注意力模型,它基于Pyramid形式的多分辨率特征表示,类似于基于图像金字塔的视觉系统。PVT模型可以利用不同尺度的特征信息,从而在图像分类、检测和分割等任务中获得更好的性能。相比于传统的Transformer模型,PVT在参数和计算复杂度方面更加高效,并且在ImageNet等大规模数据集上取得了优异的结果。
Vision Transformer (ViT):
        Vision Transformer是一种基于Transformers模型架构的视觉模型,它使用了Transformer结构进行图像分类、目标检测和图像分割等计算机视觉任务。与传统的卷积神经网络(CNN)不同的是,Vision Transformer将图像看作是一个序列,而不是像素块的矩阵。在这个序列中,每个位置都被视为一个向量,它能够捕获该位置与其他位置之间的上下文信息。Vision Transformer通过自注意力机制来交互不同的向量,并通过层层堆叠的方式进行特征提取和分类,从而在计算机视觉任务中达到了很好的效果。
Deformable Attention Transformer (DAT):
        是一种用于图像分割的深度学习模型,它基于注意力机制,并使用可变形卷积来更好地控制感受野。Deformable Attention Transformer结合了Transformer网络的自注意力和可变形卷积,能够对不同尺度和形状的特征进行有效的建模和聚合,从而实现更准确的图像分割。这种模型在计算机视觉领域的语义分割、实例分割和轮廓分割等任务中取得了很好的效果。
Deformable convolution network (DCN):
        (Deformable卷积网络)是一种改进的卷积神经网络(CNN)架构,旨在增加CNN对物体形变的鲁棒性。传统的卷积操作是固定的,它对物体的变形、扭曲和旋转等形变缺乏鲁棒性。而Deformable Convolutional Network(DCN)在传统的卷积操作中引入了一个可变形的空间采样点,并且根据空间变形率调整卷积核中的权重以实现物体的形变适应。DCN 可以应用于图像分类、目标检测、语义分割等各种计算机视觉任务中,已经在许多比赛中取得了很好的效果。
Region of Interest (RoI):
        是指在图像或视频中,被用户或系统指定为感兴趣区域的一块区域,通常是指一段像素区域。在计算机视觉、图像处理和计算机图形学等领域通常都会用到ROI。ROI的选取可以帮助用户或系统集中关注特定区域,从而提高计算效率,减少数据处理量。同时,ROI也可以将处理结果局限在指定区域,避免对整张图像或视频进行处理,从而更好地实现任务的需求。常见的ROI包括人脸、车牌、指纹、手势等。
Swin Transformer:
        是2021年由香港科技大学、南京大学、北大、微软和香港中文大学的研究团队联合提出的一种新型变换器,该模型旨在通过合并区域注意机制和全局注意机制,实现长序列文本分类和其他自然语言处理任务的高效学习。其主要特点是具有高效的计算速度和较好的性能表现。

三、相关历史综述

        近年来,采用注意力机制的变形金刚在自然语言处理领域表现出了显著的表现,成为自然语言领域事实上的标准。在图像处理领域,使用卷积机制的CNN是事实上的标准,但从那时起,人们一直试图将Transformer纳入图像处理领域。
        最初,设计了与CNN相结合的模型,但是在宣布了视觉变压器(ViT)之后,它消除了CNN并且仅使用变压器构建,仅基于该变压器的模型也已用于图像处理和识别领域。此外,众所周知,它将图像视为由一系列图像补丁组成的“序列数据”。
像ViT一样使用变压器进行图像处理的优势在于其广泛的感受野。通过抑制比CNN等更广泛的区域,可以获得更好的特征值。

        另一方面,ViT只是一个重新利用的变形金刚,也被称为密集变形金刚,其主要缺点是内存需求增加,计算成本高,学习收敛延迟和过度学习的危险。由于得到了所有图像的关系,计算成本巨大,并且不存在具有深度关系的近像素等归纳偏差,只有通过大量数据学习才能超越CNN。存在无法达到准确性的问题。另一个问题是不相关的位置可能会影响要素。

        因此,金字塔视觉变压器(PVT),也称为稀疏变压器,和SwinTransformer是作为ViT的改进而创建的。这些模型通过关注图像中已在一定程度上缩小的区域来提高记忆效率和计算效率。与ViT相比,性能有所提高,但另一方面,由于图像中的区域缩小了,因此有可能丢失从原始区域获得的广泛关系信息。

        另一方面,Swin不会计算整个图像的自我注意,而是将图像划分为小区域并在小区域内执行自我注意。与ViT相比,Swin在ImageNet-1k中的准确性有所提高,但它只能在很小的区域内获取关系,并且可能会丢失全局关系的信息。在像Swin这样手动确定的自我注意的接受领域,重要信息可能会被遗漏。

        但是,手动构建的注意力范围(例如 Swin 变压器)可能无法在效率方面进行优化。也可能在使用不必要的键/值关系时删除了重要的键/值关系。理想情况下,每个输入图像的注意力范围应该是可自由变换的,同时只允许使用重要的区域。

        提出了可变形注意力转换器(DAT)来解决这个问题。它是一个通用的主干模型,对图像分类和密集预测任务都具有可变形的注意力。

        Transformer模型通过消除重复和卷积,或者依靠自我注意,彻底改变了注意力的实现。这允许模型适应输入数据并提高其性能。这次提出的可变形注意力转换器(DAT)使用可变形自注意力,在缩小PVT和Swin变压器等区域时,可以选择具有更多影响关系的区域。

        这是一个改进的模型,它利用可变形的自我注意,以便在限制自我注意范围时可以选择更多相关区域。换句话说,它是一个可以更灵活地控制自我注意范围的模型。因此,它以依赖于数据的方式为每个查询学习不同的变形点。因此,与传统的图像处理模型相比,它成功地提高了效率和性能。因此,由于这个原因,该模型已被用于各种应用,包括图像分类和密集预测任务。
        因此,它在类分类、对象检测和分割任务中实现了 SOTA,达到了超过 Swin 的精度。

四、可变形卷积网络的简短概述

        如前所述,视觉识别任务,如物体检测或图像分类,经常要处理物体比例、姿势、视点和失真。以前的方法虽然在某种程度上有效,但也有固有的缺点。

        让我们看一下两种流行的方法:

        1. 一种策略是通过增强和增加模型容量来增强数据多样性。虽然这可能会产生更细微的模型,但它伴随着对大型数据集和潜在庞大模型的需求。
        2. 另一种方法涉及利用变形不变特征和算法,如 SIFT 和最大池化。然而,这些通常是手工制作的,限制了它们的通用性。

        此外,传统的卷积神经网络(CNN)由于其几何结构,可能容易受到几何变形的影响。它们在固定位置执行操作,并且所有层共享相同的感受野形状和大小,这可能并不总是适合对象语义识别等任务。

        为了克服这些挑战,提出了可变形卷积网络(DCN)作为涉及可变形卷积,感兴趣区域(RoI)池化的新解决方案。

        为了更好地理解可变形注意力转换器,我们先来谈谈可变形卷积网络。后者是基于“感受野应该根据物体的规模和形状进行调整”的想法。

五、可变形卷积和 RoI 池化

        该解决方案将可调节的 2D 偏移引入标准网格状卷积中,并在 RoI 池中对箱位置进行可学习的偏移。这种灵活性使模型能够处理图像中更多形状和大小的对象。

        而普通卷积试图将 y (p0) 计算为:

        在可变形卷积中,偏移量添加为

        将DCN中完成的工作简单应用到变压器中需要很高的内存和计算成本,因此不切实际。

5.1 DAT 及其周边地区

        可变形注意力转换器(DAT)可以作为图像分类、目标检测和分割任务的核心网络,为图像识别领域带来灵活性和效率。

        DAT的关键组成部分是可变形注意力(DA)。它通过关注特征图中的重要区域来有效地对令牌之间的关系进行建模。注意力区域是使用从偏移网络的查询中学习的可变形采样点获得的。

        与学习特征图中不同像素的不同区域的可变形卷积网络 (DCN) 不同,DAT 学习与查询无关的区域组。最近的研究表明,对于不同的查询,全局注意力会导致几乎相同的注意力模式,从而可以在重要区域集中键/值,并提高计算效率。

5.2 克服高昂的计算成本

        但是,尽管有这些好处,计算成本可能很高。为了解决这个问题,提出了一种策略,包括从输入特征图生成参考点,对这些参考点进行归一化,使用子网生成偏移,然后在变形的参考点上执行双线性完成。

5.3 促进变形点的多样性

        特征通道分为几组,以鼓励变形点的多样性。与多头自我注意 (MHSA) 方法类似,基于每个组的要素利用共享子网来生成合理的偏移。

5.4 使用可变形相对位置偏差增强空间信息

        将可变形的相对位置偏差合并到 DAT 中还可以增强注意力操作中的空间信息。

5.5 DAT 的模型架构

        在计算成本方面,可变形多头注意力(DMHA)与PVT和Swin变压器等模型相比具有优势。区别主要在于偏移网络的计算复杂度。

        DAT 使用多尺度特征图,并在后期阶段使用可变形注意力来模拟更广泛区域中的关系。对于分类任务,我们使用具有池化特征的线性分类器。对于对象检测和分割任务,DAT充当模型的主干,提取多尺度特征。

(a) ViT(视觉转换器):ViT将自我注意力应用于整个图像,利用全局感受野来捕获总体特征。

(b) Swin 变压器:与 ViT 不同,Swin 变压器限制其感受野,在这些定义的边界内执行自我注意。

(c) DCN(可变形卷积网络):DCN是基于卷积神经网络(CNN)的模型,它对可变形感受野进行操作。

5.6 DAT 结构概述

        DAT的整体结构遵循类似于ResNet的四阶段分层设计。随着每个阶段的进展,特征图的空间大小减半,而通道数增加一倍,利用卷积层在阶段之间进行下采样。

        为了减少计算工作量,第一个 4x4 卷积将采样下采样到图像大小的 1/4。阶段 1 和 2 实现局部注意力和移位窗口注意力 — 来自 Swin 变压器的限制感受场自我注意识别方法。同时,阶段3和4采用局部注意力和可变形注意力,执行交替的局部和全局识别以提高精度。

        有趣的是,DAT只在过程的后半部分采用可变形的注意力。这是由于ViT模型倾向于在早期识别阶段进行局部识别,并努力减少计算。

六、模型结构

        整体模型结构采用像ResNet这样的四阶段层次结构。随着阶段的进展,特征图的空间大小减半,通道数加倍。阶段之间的这种下采样使用卷积层。(k=内核大小,s=步幅)。
第一个 4x4 卷积被下采样到图像大小的 1/4,以减少计算工作量。

        阶段 1 和 2 采用本地注意力和移位窗口注意力。这些是Swin变压器中使用的具有受限感受野的自我注意识别方法。

        阶段 3 和 4 采用局部注意力和可变形注意力。通过交替执行本地识别和全局识别,有助于提高准确性。

        之所以只在后半段采用可变形注意力,是因为ViT模型在识别的早期阶段倾向于局部识别,为了减少计算量,只在后半段采用可变形注意力。

七、可变形注意力模块

        输入图像 x (H×W×C) 具有参考点 (Hg×Wg= HxW/r²),其中 are 是手动确定的,处理如下,其中 Hg=H/r 和 Wg=W/r:

(i) 输入是尺寸为 H × W × C 的特征图 x。

(ii) 我们从尺寸为 HG × WG × 2 的均匀网格中选择像素 p 作为参考点(其中 HG = H/r,WG = W/r,有效地对原始网格进行降采样)。

(iii) 这些参考点线性投影到二维坐标系上,其点范围从 (0,0) 到 (HG — 1, WG — 1),并在 [-1, +1] 之间归一化,其中左上角对应于 (-1,-1)。

(iv) 为了获取每个参考点的偏移量,对特征图进行线性投影,从而得到查询令牌 q = xWq。

(v) 然后将查询令牌 q 传递到子网 θ 偏移量以生成偏移量。

        为了确保稳定的学习过程,通过变换 Δp ← s tanh(Δp) 来采用预定义的值 s 来防止 Δp 变得太大。

(六)将参考点和偏移信息结合起来得到变形的参考点。

(vii) 然后,我们对这些变形的参考点进行双线性插值,对特征 x ̃ 进行采样。

(viii) 对步骤 (viii) 的结果进行线性投影,以保护密钥令牌 k ̃ = x ̃ Wk 和值标记 v ̃ = x ̃ Wv。

(九) 最后,以整合类似位置嵌入的信息的方式应用注意力,最终产生最终输出。

7.1 偏移网络简介(子网)

        在此子网中,将使用查询为每个参考点计算偏移值。由于输入图像X经过线性变换以获得查询(Q),然后将其输入到偏移网络中。实现具有两个具有非线性激活函数的卷积模块的子网。
首先使用kxk(本文中的5×5)深度卷积来获取局部特征。然后偏移网络利用两个卷积之间的 GelU 函数。DW 卷积中的卷积内核卷积空间信息。
        然后,在通道方向上卷积的 1x1 卷积压缩为 2 个通道(水平、垂直)。特征图存储对应于每个参考点的垂直和水平距离值。

7.2 键和值

        使用偏移网络确定的值平移参考点。通过双线性插值(处理浮点数)确定
其移动到的参考点的值。
        特征图使用参考点确定值 x(Hg×Wg×C) 并创建 x 然后线性变换 to 键和值。

        为了鼓励变形点的多样性,将特征通道分成G组,这种策略让人联想到多头自我注意(MHSA)技术。每个组中的要素子集利用共享子网来生成相关偏移。实际上,多头注意力单元的计数是偏移组数的 G 倍,确保为每个转换后的键和值标记组分配多个注意力头。

        此外,相对位置偏差(介于 7 和 9 之间)封装了所有可能的查询键对之间的相对位置,从而增强了具有空间数据的传统注意力机制。最后,在DAT的框架内,归一化值用作位置嵌入,考虑连续的相对位移以覆盖所有潜在的偏移值。

        因此,多头注意适用,其中输入查询、键和值通过以下方式派生:

        自我注意应用以下等式,其中B表示可变形的相对位置偏差:

        可变形多头衰减(DMHA)具有类似的计算成本,例如PVT和Swin变压器。区别在于偏移网络的计算复杂度。

        其中 Ns= HgxWg

        虽然Swin Transformer的计算系数为79.63M Flops,但添加子网产生的计算成本约为5.08M Flops。请注意,通过增加 r 的值(缩减采样因子),可以进一步降低计算成本。

八、模型体系结构

        该模型的整体架构遵循四阶段层次结构,让人联想到ResNet。随着阶段的进展,特征图的空间维度减半,而通道数翻倍,这是通过卷积层的实现的。在初始步骤中,第一个 4x4 卷积减少到图像大小的四分之一,以减少计算工作量。

        DAT认识到图像任务需要多尺度特征图,采用类似的分层排列来形成特征金字塔。在第一阶段和第二阶段,没有实现可变形注意力(DA),因为主要目标是掌握更多的局部特征。由于相当大的空间开销和计算成本,这里避免了DA。相反,该模型将本地信息与 Shift-Window 注意力集成在一起,Shift-Window 注意力是 Swin Transformer 中使用的一种基于窗口的局部注意力机制。

        第三和第四阶段引入了可变形的注意力,允许对从更局部的区域过渡到更广泛的区域的关系进行建模。在分类任务中,线性分类器与池化特征一起使用,以首先规范化最后阶段的特征图输出,然后再预测 logit。

        对于对象检测和分割任务,DAT 作为模型的主干,提取多尺度特征。此外,在对象检测和语义分割解码器等任务中,在将规范化层馈送到后续模块之前,将规范化层合并到每个阶段的功能中,该过程类似于 FPN 方法。这种结构化方法平衡了本地和全球识别并管理计算成本,从而提高了各种任务的准确性和效率。

九、可变形注意力和结果采用的阶段

        可以看出,在ImageNet-3k分类任务的可变形注意采用的阶段4和1中采用它,精度很高。

        DAT在图像分类(ImageNet-1K)、对象检测(COCO)和分割(ADE20K)等任务中优于传统方法。特别是在 ImageNet-1k 分类中,可变形注意力采用的第 3 阶段和第 4 阶段实现了高精度。

虽然顶部的SWIN无法区分前景和背景

DAT将参考点转移到长颈鹿身上,也关注另一只长颈鹿。

        因此,DAT通过将参考点移近识别目标来改善识别并减少计算负载。

总之,该解决方案提供了一种克服视觉识别任务中现有挑战的有希望的方法。通过使用可变形注意力转换器,旨在为图像识别领域带来更大的灵活性、效率和实用性。

十、参考资料

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, Ł., & Polosukhin, I. (2017).注意力就是你所需要的。在NeurIPS(第5998-6008页)中。

多索维茨基,A.,拜尔,L.,科列斯尼科夫,A.,魏森伯恩,D.,翟,X.,Unterthiner,T.,Dehghani,M.,Minderer,M.等人(2020)。一张图像价值 16x16 个字:用于大规模图像识别的变压器。arXiv预印本arXiv:2010.11929.

刘志忠,林,Y.,曹彦,胡,H.,魏,Y.,张,Z.,林,S.和郭,B.(2021)。使用移位窗口的分层视觉转换器。国际刑事法庭。

Dai, J., Qi, H., Xiong, Y., Li, Y., Zhang, G., Hu, H., & Wei, Y. (2017).可变形卷积网络。在ICCV(第764-773页)。

王伟文、谢磊、李晓、范德平、宋、梁、卢、T.、罗、P.和邵林(2021)。金字塔视觉变压器:多功能。在ICCV中。乔·埃尔·库里

Zhu, X., Su, W., Lu, L., Li, B., Wang, X., & Dai, J. (2020).可变形变压器:用于端到端物体检测的可变形变压器。arXiv预印本arXiv:2010.04159.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1042507.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【前端面试题】2023年 国庆 前端面试真题之JS篇

人的一生,总是难免有浮沉。不会永远如旭日东升,也不会永远痛苦潦倒。反复地一浮一沉,对于一个人来说,正是磨练。因此,浮在上面的,不必骄傲;沉在底下的,更用不着悲观。必须以率直、谦…

获取keystore中的公钥模数及md5

app备案时需要使用apk中的签名公钥,以及md5,但官方提供的方法是使用jadxGUI去打开apk获取: 填写App特征信息_备案-阿里云帮助中心 实际生产中apk都没有可能就要走备案流程。 但其实公钥模数和md5不需要apk,只需要keystore就行了。…

企业怎么在千万媒体渠道中找到适合自己的,媒介盒子告诉你

哈喽,大家好,今天媒介盒子小编又来跟大家分享软文推广的干货知识了,本篇分享的主要内容是:企业怎么在千千万万的媒体渠道中找到适合自己的。 1. 深入了解用户和产品 企业在进行产品推广之前,一定要全方位地挖掘产品可能应用到的使用场景。锁定产品的目标的目标用户…

OpenCV实现FAST算法角点检测 、ORB算法特征点检测

目录 1 Fast算法 1.1 Fast算法原理 1.2 实现办法 1.2.1 机器学习的角点检测器 1.2.2 非极大值抑制 1.3 代码实现 1.4 结果展示 2 ,ORB算法 2.1代码实现 2.2 结果展示 1 Fast算法 1.1 Fast算法原理 1.2 实现办法 1.2.1 机器学习的角点检测器 1.2.2 …

React 全栈体系(十五)

第八章 React 扩展 一、setState 1. 代码 /* index.jsx */ import React, { Component } from reactexport default class Demo extends Component {state {count:0}add ()>{//对象式的setState/* //1.获取原来的count值const {count} this.state//2.更新状态this.set…

在Linux中通过docker安装宝塔面板

先在Linux中手动安装docker,然后在docker中安装宝塔面板,并进行docker网络端口映射。 手动安装docker 第一步,卸载旧版本docker。 若系统中已安装旧版本docker,则需要卸载旧版本docker以及与旧版本docker相关的依赖项。 命令&…

深入理解 Spring MVC 的工作原理

🌷🍁 博主猫头虎(🐅🐾)带您 Go to New World✨🍁 🦄 博客首页——🐅🐾猫头虎的博客🎐 🐳 《面试题大全专栏》 🦕 文章图文…

185_技巧_Power Query(M)语言快捷输入之搜狗输入法设置自定义短语

185_技巧_Power Query(M)语言快捷输入之搜狗输入法设置自定义短语 此前,我们发布过如何通过 QQ拼音输入法 来实现快速的输入Power Query(M) 语言。参考:https://jiaopengzi.com/730.html 今天我们来更新 Power Query(M) 语言在 搜狗输入法 中设置自定义…

iPhone 15首批体验出炉,掉漆、烫手、进灰,口碑严重崩塌

眼看 iPhone 15 系列已经上架,不知道大伙儿剁手了没有? 哦,原来你们也在等首批用户体验反馈啊! 随着 22 号正式开售,到目前不少人陆续上手 iPhone 15 系。 咱们也是翻阅了大量贴吧用户反馈、电商平台评论等&#xff…

2023-09-26 LeetCode每日一题(递枕头)

2023-09-26每日一题 一、题目编号 2582. 递枕头二、题目链接 点击跳转到题目位置 三、题目描述 n 个人站成一排,按从 1 到 n 编号。 最初,排在队首的第一个人拿着一个枕头。每秒钟,拿着枕头的人会将枕头传递给队伍中的下一个人。一旦枕…

Python读取Excel每一行为列表—大PK(openpyxl\pandas\xlwings\xlrd)看谁用时少?

目录 背景使用—openpyxl(耗时89秒输出)使用—pandas(耗时44秒输出)使用—xlwings(耗时15秒输出)使用—xlrd(耗时47秒输出)总结 背景 我们在平常办公的时候,尤其是财务人…

流媒体播放器EasyPlayer.js无法播放H.265的情况是什么原因?该如何解决?

H5无插件流媒体播放器EasyPlayer属于一款高效、精炼、稳定且免费的流媒体播放器,可支持多种流媒体协议播放,可支持H.264与H.265编码格式,性能稳定、播放流畅,能支持WebSocket-FLV、HTTP-FLV,HLS(m3u8&#…

C语言 —— 分支语句和循环语句

目录 1. 什么是语句? 2. 分支语句 (选择结构) 2.1 if语句 2.1.1 悬空else 2.1.2 if书写形式的对比 2.1.3 练习 2.2 switch语句 2.2.1 switch的使用 2.2.2 default字句 2.2.3 练习 3. 循环语句 3.1 while循环 3.1.1 while语句中的break和continue break介绍 continue介绍 3.2 f…

Linux配置命令

一&#xff1a;HCSA-VM-Linux安装虚拟机后的基础命令 1.代码命令 1.查看本机IP地址&#xff1a; ip addr 或者 ip a [foxbogon ~]$ ip addre [foxbogon ~]$ ip a 1&#xff1a;<Loopback,U,LOWER-UP> 为环回2网卡 2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP&g…

经典文献阅读之--EGO-Planner(无ESDF的四旋翼局部规划器)

0. 简介 作为局部规划器而言&#xff0c;当机器人或无人机想要避开动态障碍物时。局部规划器就显得尤为重要了。其中基于梯度的规划器被广泛用于四旋翼无人机的局部规划&#xff0c;其中欧几里得符号距离场&#xff08;ESDF&#xff09;对于评估梯度幅度和方向至关重要。然而&…

【数值计算方法】非线性方程(组)和最优化问题的计算方法:非线性方程式求根的二分法、迭代法、Newton 迭代法及其Python实现

目录 一、非线性方程式求根 1、二分法&#xff08;Bisection Method、对分法&#xff09; a. 理论简介 b. python实现 2、迭代法&#xff08;Iterative Method&#xff09; a. 理论简介 b. python实现 3、Newton 迭代法&#xff08;Newtons Method&#xff09; a. 理论…

制作搞笑聊天视频的新神器,全自动搞笑聊天对话视频生成器!

大家都知道&#xff0c;想要在社交媒体上出人头地&#xff0c;搞笑聊天视频是一个绝佳的选择。而如何制作一个搞笑的聊天视频呢&#xff1f;不要担心&#xff0c;今天我要向大家推荐的是一款神奇的搞笑聊天视频生成器&#xff0c;它可以让你轻松一键制作出搞笑对话视频。 搞笑对…

9.2.4 【MySQL】段的结构

段不对应表空间中某一个连续的物理区域&#xff0c;而是一个逻辑上的概念&#xff0c;由若干个零散的页面以及一些完整的区组成。像每个区都有对应的XDES Entry来记录这个区中的属性一样&#xff0c;定义了一个INODE Entry结构来记录段中的属性。 它的各个部分释义如下&#xf…

向AI提问,我是怎么做的?

OpenAI 是一个人工智能研究实验室和技术公司&#xff0c;而 ChatGPT&#xff08;Chatbot GPT&#xff09;是 OpenAI 开发的一种基于自然语言处理技术的聊天机器人模型。它能够理解用户的输入并生成相应的回复&#xff0c;通过模仿人类对话的方式进行交流。但是AI对话与人完全不…

IT数据预警设备监控

信息技术已经成为企业经营的重要支撑。恶意程序、黑客攻击、数据泄露等问题频繁发生&#xff0c;对公司经营影响很大。因此&#xff0c;IT预警监控已经成为公司维护数据安全的主要防御。  IT预警监控是一种基于实时监控公司IT系统&#xff0c;及时发现和处理隐性安全威胁管理…