深度学习之自监督模型汇总

news2024/11/18 11:21:15

1.BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

paper:https://arxiv.org/pdf/1810.04805v2.pdf

code:GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT

Abstract:我们引入了一种名为 BERT 的新语言表征模型,BERT 是双向编码器表征(Bidirectional Encoder Representations from Transformers)的缩写。与最近的语言表征模型(Peters 等人,2018a;Radford 等人,2018)不同,BERT 的设计是通过在所有层中对左右上下文进行联合调节,从未标明的文本中预训练深度双向表征。因此,预训练的 BERT 模型只需增加一个输出层即可进行微调,从而为问题解答和语言推理等多种任务创建最先进的模型,而无需对特定任务的架构进行大量修改。BERT 概念简单,经验强大。它在 11 项自然语言处理任务上取得了最先进的新成果,包括将 GLUE 分数提高到 80.5%(绝对提高 7.7%),MultiNLI 准确率提高到 86.7%(绝对提高 4.6%),SQuAD v1.1 问题解答测试 F1 提高到 93.2(绝对提高 1.5%),SQuAD v2.0 测试 F1 提高到 83.1(绝对提高 5.1%)。

2.ALBERT: A Lite BERT for Self-supervised Learning of Language Representations

paper:https://arxiv.org/pdf/1909.11942v6.pdf

code:GitHub - google-research/albert: ALBERT: A Lite BERT for Self-supervised Learning of Language Representations

Abstract:在对自然语言表征进行预训练时,增加模型大小往往会提高下游任务的性能。然而,由于 GPU/TPU 内存的限制和训练时间的延长,在某些情况下进一步增加模型变得更加困难。为了解决这些问题,我们提出了两种参数缩减技术,以降低内存消耗并提高 BERT 的训练速度。全面的经验证据表明,与原始 BERT 相比,我们提出的方法所建立的模型扩展性更好。我们还使用了一种自监督损失,该损失侧重于对句子间的连贯性进行建模,并表明它始终有助于多句子输入的下游任务。因此,我们的最佳模型在 GLUE、RACE 和 SQuAD 基准测试中取得了新的一流成绩,同时与 BERT-large 相比参数更少。

3.Designing BERT for Convolutional Networks: Sparse and Hierarchical Masked Modeling

paper:https://arxiv.org/pdf/2301.03580v2.pdf

code:https://github.com/keyu-tian/SparK

Abstract:我们发现并克服了将 BERT 式预训练或遮蔽图像建模成功推广到卷积网络(convnets)的两个关键障碍:(i) 卷积操作无法处理不规则、随机遮蔽的输入图像;(ii) BERT 预训练的单尺度性质与卷积网络的层次结构不一致。针对(i),我们将未屏蔽像素视为三维点云的稀疏体素,并使用稀疏卷积进行编码。这是首次将稀疏卷积用于二维屏蔽建模。对于 (ii),我们开发了一种分层解码器,用于从多尺度编码特征重建图像。我们的方法被称为稀疏遮蔽建模(SparK),具有通用性:它可以直接用于任何卷积模型,无需对骨干进行修改。我们在经典模型(ResNet)和现代模型(ConvNeXt)上对其进行了验证:在三个下游任务上,它都以同样大的优势(约+1.0%)超越了最先进的对比学习和基于变换器的掩蔽建模。在物体检测和实例分割方面的改进更为显著(高达 +3.5%),验证了所学特征的强大可转移性。此外,我们还发现了其良好的扩展行为,在更大的网络中观察到了更多的收益。所有这些证据都揭示了在卷积网络上进行生成预训练的美好前景。

4.wav2vec 2.0: A Framework for Self-Supervised Learning of Speech Representations

paper:https://arxiv.org/pdf/2006.11477v3.pdf

code:https://github.com/facebookresearch/fairseq

Abstract:我们首次证明,仅从语音音频中学习强大的表征,然后对转录语音进行微调,就能超越最好的半监督方法,而且概念上更简单。wav2vec 2.0 在潜在空间中屏蔽了语音输入,并解决了联合学习的潜在表征量化所定义的对比任务。使用 Librispeech 的所有标注数据进行的实验在干净/其他测试集上实现了 1.8/3.3 的 WER。当标注数据量降低到一小时时,wav2vec 2.0 在 100 小时子集上的表现优于之前的技术水平,而使用的标注数据量则减少了 100 倍。仅使用十分钟的标注数据并在 53k 小时的未标注数据上进行预训练,WER 仍然达到了 4.8/8.2。这证明了使用有限的标注数据进行语音识别的可行性。

5.DiT: Self-supervised Pre-training for Document Image Transformer

paper:https://arxiv.org/pdf/2203.02378v3.pdf

code:https://github.com/microsoft/unilm/tree/master/dit

Abstract:最近,图像变换器在自然图像理解方面取得了重大进展,无论是使用监督式(ViT、DeiT 等)还是自监督式(BEiT、MAE 等)预训练技术。在本文中,我们提出了一种自监督预训练的文档图像转换器模型--DiT,它使用大规模无标记文本图像来完成文档人工智能任务。由于缺乏人类标注的文档图像,因此不存在有监督的对应模型,这对文档人工智能任务至关重要。我们利用 DiT 作为各种基于视觉的文档人工智能任务的骨干网络,包括文档图像分类、文档布局分析、表格检测以及用于 OCR 的文本检测。实验结果表明,自监督预训练的 DiT 模型在这些下游任务中取得了新的一流结果,例如文档图像分类(91.11 → 92.69)、文档布局分析(91.0 → 94.9)、表格检测(94.23 → 96.55)和 OCR 文本检测(93.07→ 94.29)。

 

6.Contextualized Spatio-Temporal Contrastive Learning with Self-Supervision

paper:https://arxiv.org/pdf/2112.05181v2.pdf

code:https://github.com/tensorflow/models/

Abstract:现代自监督学习算法通常会在不同视图之间强制保持实例表示。虽然这种算法对学习整体图像和视频表征非常有效,但对于学习视频中的时空细粒度特征来说,这种目标就变得不理想了,因为在视频中,场景和实例会随着空间和时间的变化而变化。在本文中,我们提出了上下文时空对比学习(Contextualized Spatio-Temporal Contrastive Learning,ConST-CL),通过自我监督有效地学习时空细粒度视频表征。我们首先设计了一个基于区域的借口任务,要求模型在上下文特征的引导下将实例表示从一个视图转换到另一个视图。此外,我们还引入了一种简单的网络设计,成功地协调了整体表征和局部表征的同步学习过程。我们在各种下游任务中对所学表征进行了评估,结果表明 ConST-CL 在 6 个数据集上取得了具有竞争力的结果,包括 Kinetics、UCF、HMDB、AVAKinetics、AVA 和 OTB。

7.Efficient Visual Pretraining with Contrastive Detection

paper:https://arxiv.org/pdf/2103.10957v2.pdf

code:https://github.com/google-deepmind/detcon

Abstract:自我监督预训练已被证明能为迁移学习提供强大的表征。然而,这些性能的提高需要付出巨大的计算成本,最先进的方法所需的计算量要比监督预训练多出一个数量级。我们通过引入一种新的自我监督目标--对比检测--来解决这一计算瓶颈问题,该目标要求表征识别不同增强的对象级特征。这一目标能从每幅图像中提取丰富的学习信号,从而在各种下游任务中实现最先进的转移准确性,同时所需的预训练时间也减少了 10 倍。特别是,我们最强的 ImageNet 预训练模型与 SEER(迄今为止最大的自监督系统之一)的表现不相上下,而后者使用的预训练数据要多 1000 倍。最后,我们的目标是无缝处理 COCO 等更复杂图像的预训练,缩小从 COCO 到 PASCAL 的监督迁移学习的差距。

8.DetCo: Unsupervised Contrastive Learning for Object Detection

paper:https://arxiv.org/pdf/2102.04803v2.pdf

code:https://github.com/xieenze/DetCo

Abstract:我们介绍的 DetCo 是一种简单而有效的物体检测自监督方法。最近,人们设计了一些用于物体检测的无监督预训练方法,但这些方法通常在图像分类方面存在缺陷,或者恰恰相反。与它们不同的是,DetCo 能够很好地转移下游实例级密集预测任务,同时保持有竞争力的图像级分类精度。其优势来自于:(1)对中间表征的多级监督;(2)全局图像和局部斑块之间的对比学习。这两种设计有助于在特征金字塔的每个层次上对全局和局部进行辨别和一致的表征,从而同时改进检测和分类。

9.Self-Supervised Learning with Swin Transformers

paper:https://arxiv.org/pdf/2105.04553.pdf

code:https://github.com/SwinTransformer/Transformer-SSL

Abstract:在计算机视觉领域,我们正在见证从 CNN 到 Transformers 的建模转变。在这项工作中,我们提出了一种名为 MoBY 的自监督学习方法,其骨干架构是视觉变形器。这种方法基本上没有新的发明,它由 MoCo v2 和 BYOL 组合而成,并经过调整,在 ImageNet-1K 线性评估中达到了相当高的准确率: 使用 DeiT-S 和 Swin-T 进行 300 次训练后,前 1 级准确率分别为 72.8% 和 75.0%。与采用 DeiT 作为骨干的 MoCo v3 和 DINO 相比,其性能略胜一筹,但使用的技巧要少得多。更重要的是,通用的 Swin Transformer 骨干使我们还能在物体检测和语义分割等下游任务中对所学表示进行评估,这与最近基于 ViT/DeiT 的一些方法形成了鲜明对比,这些方法只在 ImageNet-1K 上报告了线性评估结果,原因是 ViT/DeiT 并不适合这些密集预测任务。我们希望我们的结果能促进对专为 Transformer 架构设计的自监督学习方法进行更全面的评估。

10.UP-DETR: Unsupervised Pre-training for Object Detection with Transformers

paper:https://arxiv.org/pdf/2011.09094.pdf

code:https://github.com/dddzg/up-detr

Abstract:通过变压器编码器-解码器架构,用于物体检测的 DETR(DECTION TRANSFORMER)与 Faster R-CNN 相比,达到了具有竞争力的性能。然而,使用从头变压器进行训练的 DETR 需要大规模的训练数据,即使在 COCO 数据集上也需要极长的训练时间。受自然语言处理中预训练变换器取得巨大成功的启发,我们提出了一个新颖的前置任务,名为 "无监督预训练 DETR(UP-DETR)中的随机查询补丁检测"。具体来说,我们从给定图像中随机裁剪补丁,然后将其作为查询输入解码器。模型经过预训练,可以从输入图像中检测出这些查询补丁。在预训练过程中,我们要解决两个关键问题:多任务学习和多查询定位。(1) 为了在借口任务中权衡分类和定位偏好,我们发现冻结 CNN 骨干是预训练变换器成功的前提。(2) 为了执行多查询定位,我们开发了带有注意力掩码的多查询补丁检测的 UP-DETR。此外,UP-DETR 还为微调对象检测和单次检测任务提供了统一的视角。在我们的实验中,UP-DETR 显著提高了 DETR 的性能,在物体检测、单次检测和全景分割方面收敛更快,平均精度更高。

11.Context Autoencoder for Self-Supervised Representation Learning

paper:https://arxiv.org/pdf/2202.03026v3.pdf

code:https://github.com/dddzg/up-detr

Abstract:我们提出了一种用于自我监督表征预训练的新型掩膜图像建模(MIM)方法--上下文自动编码器(CAE)。我们通过对编码表征空间进行预测来对编码器进行预训练。预训练任务包括两项:掩膜表征预测--预测掩膜图像块的表征,以及掩膜图像块重建--重建掩膜图像块。该网络是一个编码器-调节器-解码器架构:编码器将可见图像块作为输入;调节器利用可见图像块的表征以及可见图像块和掩膜图像块的位置,预测掩膜图像块的表征,预计这些表征将与编码器计算出的表征保持一致;解码器根据预测的编码表征重建掩膜图像块。CAE 设计鼓励将学习编码器(表征)与完成相关任务(即掩膜表征预测和掩膜图像块重建任务)分离开来,在编码表征空间进行预测从经验上显示了对表征学习的益处。我们通过在下游任务(语义分割、对象检测和实例分割以及分类)中出色的转移性能证明了 CAE 的有效性。

12.SELF-SUPERVISED TRANSFORMERS FOR UNSUPERVISED OBJECT DISCOVERY USING NORMALIZED CUT

paper:https://arxiv.org/pdf/2202.11539v2.pdf

code:https://github.com/YangtaoWANG95/TokenCut

Abstract:事实证明,利用自失调损失(DINO)进行自我监督训练的变形器能生成突出前景突出物体的注意力图。在本文中,我们展示了一种基于图的方法,利用自监督变换器特征从图像中发现物体。视觉标记被视为加权图中的节点,其边缘代表基于标记相似度的连接性得分。然后,可以使用归一化图切将前景物体分割为自相似区域。我们使用带广义特征分解的光谱聚类来解决图切割问题,结果表明,第二小特征向量提供了切割解决方案,因为其绝对值表示标记属于前景物体的可能性。尽管这种方法非常简单,但却大大提高了无监督对象发现的性能:在 VOC07、VOC12 和 COCO20K 上,我们比最近最先进的 LOST 分别提高了 6.9%、8.1% 和 8.1%。通过增加第二阶段的类无关检测器(CAD),性能还能进一步提高。我们提出的方法可以很容易地扩展到无监督的突出检测和弱监督的物体检测。在无监督的显著性检测方面,我们在 ECSSD、DUTS、DUT-OMRON 上的 IoU 与最先进技术相比分别提高了 4.9%、5.2% 和 12.9%。在弱监督对象检测方面,我们在 CUB 和 ImageNet 上取得了具有竞争力的性能。

13.Refine and Represent: Region-to-Object Representation Learning

paper:https://arxiv.org/pdf/2208.11821v2.pdf

code:https://github.com/kkallidromitis/r2o

Abstract:最近,以物体为中心的自监督学习方法在物体检测和分割等密集预测任务中取得了最先进的成果。然而,以物体为中心的预训练方法依赖于固定的、现成的分割启发式方法来识别图像中的物体。在本文中,我们提出了区域到对象表征学习(R2O),它在预测分割掩膜和使用这些掩膜预训练编码网络之间摇摆不定。R2O 通过聚类编码特征来确定分割掩膜。然后,R2O 通过区域到区域的相似性学习对编码网络进行预训练,在这种学习过程中,编码网络会采用图像的不同视图,并将分割区域映射到相似的编码特征。R2O 采用区域到对象的预训练课程,鼓励预测的分割掩膜在早期输出大量区域,并在整个训练过程中逐渐减少区域,正如我们所展示的,这相当于区域到区域,然后是对象到对象的预训练。使用 R2O 学习到的表征可为物体检测、实例分割和语义分割带来最先进的传输性能。此外,在加州理工学院-加州大学伯克利分校 Birds 200-2011 数据集上,R2O ImageNet 预训练模型在无监督对象分割方面超越了最先进的水平,而无需进一步训练。

14.Semantic-aware Dense Representation Learning for Remote Sensing Image Change Detection

paper:https://arxiv.org/pdf/2205.13769v2.pdf

code:https://github.com/justchenhao/SaDL_CD

Abstract:有监督的深度学习模型依赖于海量标注数据。遗憾的是,收集和注释包含所需变化的位时样本既耗时又耗力。在遥感(RS)变化检测(CD)中,来自预训练模型的迁移学习能有效缓解标签不足的问题。我们探索了在预训练过程中使用语义信息的方法。与学习图像到标签映射的传统监督预训练不同,我们将语义监督纳入了自监督学习(SSL)框架。通常情况下,多个感兴趣的对象(如建筑物)分布在未经整理的 RS 图像的不同位置。我们不通过全局池化处理图像级表征,而是在每像素嵌入上引入点级监督,以学习空间敏感特征,从而受益于下游密集 CD。为此,我们通过使用语义掩膜对视图之间的重叠区域进行类平衡采样来获得多个点。我们会学习一个嵌入空间,在这个空间中,背景点和前景点会被推开,而不同视图中空间对齐的点会被拉到一起。我们的直觉是,由此产生的不受无关变化(光照和不相关的土地覆盖)影响的语义判别表征可能有助于变化识别。我们收集了 RS 社区免费提供的大规模图像-掩膜对,用于预训练。在三个 CD 数据集上进行的广泛实验验证了我们方法的有效性。我们的方法明显优于 ImageNet 预训练、域内监督和几种 SSL 方法。经验结果表明,我们的预训练提高了 CD 模型的泛化和数据效率。值得注意的是,与使用 100% 数据的基线(随机初始化)相比,我们使用 20% 的训练数据就能获得具有竞争力的结果。

15.Semantic Segmentation of Remote Sensing Images With Self-Supervised Multitask Representation Learning

paper:Semantic Segmentation of Remote Sensing Images With Self-Supervised Multitask Representation Learning | IEEE Journals & Magazine | IEEE Xplore

code:https://github.com/flyakon/SSLRemoteSensing

Abstract:现有的基于深度学习的遥感图像语义分割方法需要大规模的标注数据集。然而,分割数据集的标注往往过于耗时和昂贵。为了减轻数据标注的负担,最近出现了自监督表示学习方法。然而,语义分割方法需要同时学习高层和低层特征,但现有的大多数自监督表示学习方法通常只关注一个层次,这影响了遥感图像的语义分割性能。为了解决这个问题,我们提出了一种自监督多任务表征学习方法,以捕捉遥感图像的有效视觉表征。我们设计了三个不同的前置任务和一个三重连体网络来同时学习高层和低层图像特征。该网络可以在没有任何标注数据的情况下进行训练,训练后的模型可以通过注释分割数据集进行微调。我们在波茨坦、Vaihingen 数据集和云/雪检测数据集 Levir_CS 上进行了实验,以验证我们方法的有效性。实验结果表明,我们提出的方法能有效减少对标注数据集的需求,提高遥感语义分割的性能。与近年来最先进的自监督表示学习方法和常用的初始化方法(如随机初始化和 ImageNet 预训练)相比,我们提出的方法在大多数实验中都取得了最佳效果,尤其是在训练数据较少的情况下。在只有 10% 到 50% 标注数据的情况下,我们的方法可以达到与随机初始化相当的性能。

16.Global and Local Contrastive Self-Supervised Learning for Semantic Segmentation of HR Remote Sensing Images

paper:https://arxiv.org/pdf/2106.10605.pdf

code:https://github.com/GeoX-Lab/G-RSIM

Abstract:现有的基于深度学习的遥感图像语义分割方法需要大规模的标注数据集。然而,分割数据集的标注往往过于耗时和昂贵。为了减轻数据标注的负担,最近出现了自监督表示学习方法。然而,语义分割方法需要同时学习高层和低层特征,但现有的大多数自监督表示学习方法通常只关注一个层次,这影响了遥感图像的语义分割性能。为了解决这个问题,我们提出了一种自监督多任务表征学习方法,以捕捉遥感图像的有效视觉表征。我们设计了三个不同的前置任务和一个三重连体网络来同时学习高层和低层图像特征。该网络可以在没有任何标注数据的情况下进行训练,训练后的模型可以通过注释分割数据集进行微调。我们在波茨坦、Vaihingen 数据集和云/雪检测数据集 Levir_CS 上进行了实验,以验证我们方法的有效性。实验结果表明,我们提出的方法能有效减少对标注数据集的需求,提高遥感语义分割的性能。与近年来最先进的自监督表示学习方法和常用的初始化方法(如随机初始化和 ImageNet 预训练)相比,我们提出的方法在大多数实验中都取得了最佳效果,尤其是在训练数据较少的情况下。在只有 10% 到 50% 标注数据的情况下,我们的方法可以达到与随机初始化相当的性能。

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1233623.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

ECharts零基础使用思路 图表案例网站推荐

1、用npm安装echarts npm i echarts -S 2、引入 (1)可以在mian.js里全局引入 import echarts from ‘echarts’ Vue.prototype.$echarts echarts 将echarts挂载在Vue原型上 用时直接this.$echarts即可 (2)也可以在组件中按需引入…

OpenAI宫斗,尘埃落定,微软成最大赢家

周末被OpenAI董事会闹剧刷屏,ChatGPT之父Sam Altman前一天被踢出董事会,免职CEO,后一天重返OpenAI,目前结局未知。 很多同学想要围观,缺少背景知识,这里老章为大家简单介绍前因后果及涉及的人物,时间线,让大家轻松围观。 备好瓜子,开始。 1、主角 先看一张图,看一…

SWAT-MODFLOW耦合

耦合模型被应用到很多科学和工程领域来改善模型的性能、效率和结果,SWAT作为一个地表水模型可以较好的模拟主要的水文过程,包括地表径流、降水、蒸发、风速、温度、渗流、侧向径流等,但是对于地下水部分的模拟相对粗糙,考虑到SWAT…

解决收集问卷难的方法与策略:提升数据收集效率

随着社会的发展和科技的进步,问卷调查成为了获取信息和研究数据的重要手段之一。然而,面临的一个普遍难题是如何解决收集问卷困难的问题。无论是在学术研究、市场调研还是社会调查中,都存在着一些挑战和阻碍因素。本文将从不同角度探讨如何突…

手机 IOS 软件 IPA 签名下载安装详情图文教程

由于某些应用由于某些原因无法上架到 appStore 或者经过修改过的软件游戏等无法通过 appStore 安装,我们就可以使用签名的方式对相应软件的IPA文件进行签名然后安装到你的手机上 这里我们使用爱思助手进行签名安装,爱思助手支持两种方式,一种…

seleninum 基础及简单实践

网页自动化 1 Selenium自动化基础 1.1 Selenium简介 Selenium自动化流程如下: 自动化程序调用Selenium客户端库函数客户端库会发送Selenium命令,给浏览器的驱动程序浏览器驱动程序接收到命令后,驱动浏览器去执行命令浏览器执行命令浏览器驱…

基于单片机电梯液晶显示防超重,防气体报警、防夹报警控制系统及源程序

一、系统方案 1、本设计采用51单片机作为主控器。 2、液晶显示楼层。 3、防超重,防气体报警、防夹报警。 二、硬件设计 原理图如下: 三、单片机软件设计 1、首先是系统初始化 /lcd1602初始化设置*/ void init_1602() //lcd1602初始化设置 { write_co…

财报解读:第三季度营收净利双增,中通快递的进击根本停不下来?

快递业又变天了。 在极兔上市之前,快递行业的格局几乎已经稳定,“通达系们”占据了过半的市场份额。数据显示,2022年按包裹量计,中通、圆通、申通、韵达市占率分别为22.1%、15.81%、11.71%、15.92%,共计占比达65.54%。…

利用互斥锁解决缓存击穿问题

核心思路:相较于原来从缓存中查询不到数据后直接查询数据库而言,现在的方案是 进行查询之后,如果从缓存没有查询到数据,则进行互斥锁的获取,获取互斥锁后,判断是否获得到了锁,如果没有获得到&am…

配置中心

服务配置中心介绍 首先我们来看一下,微服务架构下关于配置文件的一些问题: 1. 配置文件相对分散。 在一个微服务架构下,配置文件会随着微服务的增多变的越来越多,而且分散 在各个微服务中,不好统一配置和管理。 2. 配置文件无…

PixCake:让你的照片焕发新生的AI人像处理技术修图软件

大家好!今天我要向大家推荐一款令人惊艳的AI人像处理技术修图软件——PixCake像素蛋糕。无论你是摄影爱好者还是普通用户,PixCake都能帮助你将照片修饰得更加出色、生动。 PixCake拥有强大的AI人像处理技术,可以自动识别照片中的人物&#x…

MFC项目添加CUDA支持

文章目录 前言一、开启项目CUDA支持二、链接CUDA库三、链接cu文件 前言 我目前的项目状况是: 拥有一个MFC项目;拥有现成的 .cuh文件 和 .cu文件。 我想做的是:将.cuh和.cu文件放到我的项目中,并且编译成功跑起来 一、开启项目C…

了解JVM的相关概述,发现很多全忘了(文末福利)

1、学之前存在的问题 1、你被JVM伤害过吗? 你是否也遇到过这些问题? 运行着的线上系统突然卡死,系统无法访问,甚至直接OOM!想解决线上JVM GC问题,但却无从下手。新项目上线,对各种JVM参数设置一…

[Linux] shell脚本相关知识

一、shell脚本基础 1.1 shell脚本的作用 shell将人类使用的高级语言翻译成二进制,再将二进制翻译成高级语言。换句话就是人类写了一个命令集合,然后用bash去翻译给硬件执行。 linux中常见的shell: bash:基于gun的框架下发展的shell csh:类…

用向量数据库Milvus Cloud搭建GPT大模型+私有知识库的定制商业文案助手

随着智能助手的不断普及和发展,商业文案的创作也变得更加智能化和定制化。在这个信息爆炸的时代,商业文案的撰写已经不再是简单的文字表达,而是需要结合大数据分析和人工智能技术,以更好地满足目标客群的需求。在本文中,我们将介绍如何利用向量数据库Milvus Cloud搭建GPT大…

rabbit MQ的延迟队列处理模型示例(基于SpringBoot)

说明: 生产者P 往交换机X(typedirect)会发送两种消息:一、routingKeyXA的消息(消息存活周期10s),被队列QA队列绑定入列;一、routingKeyXB的消息(消息存活周期40s&#xf…

Appium移动自动化测试—如何安装Appium

前言 Appium 自动化测试是很早之前就想学习和研究的技术了,可是一直抽不出一块完整的时间来做这件事儿。现在终于有了。 反观各种互联网的招聘移动测试成了主流,如果再不去学习移动自动化测试技术将会被淘汰。 web自动化测试的路线是这样的&#xff1…

使用Mate 40 Harmony OS 4.0版本运行 codelabs ArkUI demo运行非常卡顿,换Mate 60没事

服务类型 DevEco Studio 概述 使用Mate 40 Harmony OS 4.0版本运行 codelabs ArkUI demo运行非常卡顿,换Mate 60没事 官方回复添加链接描述 客户支持工程师 2023-11-21 14:37:19 GMT08:00 尊敬的开发者,您好, 该机型卡顿黑屏为内部已知问题…

小程序隐私协议开发指南

微信为规范开发者的用户个人信息处理行为,保障用户合法权益,小程序、插件中涉及处理用户个人信息的开发者,均需补充相应用户隐私保护指引。(微信又在搞事情 T_T ) 一、小程序用户隐私保护指引 填写现网版本用户隐私保…

【excel技巧】单元格内的公式如何隐藏?

Excel文件中最重要的除了数据还有就是一些公式了,但是只要点击单元格,公式就能显示出来,如果不想别人看到公式应该如何设置呢?今天分享隐藏excel单元格数据的方法。 选中单元格,点击右键打开【设置单元格格式】&#x…