用于 RGB-D 显著目标检测的点感知交互和 CNN 诱导的细化网络(问题)

news2025/3/26 14:25:43

摘要

问题一:但在对自模态和跨模态的全局长距离依赖关系进行建模方面仍显不足。什么意思?

自模态(Intra-modal)全局依赖:在同一模态内,长距离像素之间的信息交互对于理解全局背景很重要,但 CNNs 主要依赖局部卷积,难以直接捕捉远距离的关联。

跨模态(Cross-modal)全局依赖:CNNs 在不同模态的全局匹配和特征对齐上也存在一定的局限性,因为它们主要依赖局部感受野,而难以建模全局语义。

现有的问题:

CNN 的局部感受野限制:CNN 主要依赖固定大小的卷积核(如 3×3、5×5),只能捕捉局部特征,无法直接建模远距离的特征关系。

缺乏全局特征聚合:要捕获全局依赖关系,通常需要堆叠多个卷积层或使用特定的注意力机制(如 Transformer、Self-Attention),而 CNNs 天生缺乏这种能力。

跨模态信息融合不足:CNNs 主要依靠特征拼接或逐层交互,但可能无法充分利用两种模态之间的全局信息。

解决方法:使用 Transformer 结构:如 ViT(Vision Transformer)、Swin Transformer 等,利用自注意力机制建模长距离依赖。这种问题在多模态任务(如 RGB-D SOD、RGB-T SOD)中特别关键,因为不同模态可能在不同空间位置包含互补的信息,而 CNN 难以直接建立全局的跨模态依赖。

问题二:考虑到RGB模态和深度模态之间的先验相关性什么意思?

在 RGB 模态和深度(Depth)模态之间,存在某种“先验相关性”(prior correlation),即在物理世界或视觉任务中,RGB 图像的颜色、纹理等信息,与深度图的几何结构、距离信息之间存在某种内在联系。

具体解释:

  • RGB 和深度的互补性

    • RGB 模态 提供颜色、纹理、照明等外观信息,但在低光照、遮挡或相似背景的情况下可能会失效。
    • 深度模态 提供几何结构、空间距离信息,不受光照变化的影响,但在细节和纹理上可能较为粗糙。
    • 它们的先验相关性:一般来说,深度大的地方(远处)往往颜色和纹理信息较少,而深度较小的地方(近处)通常包含丰富的细节和颜色变化。例如,前景目标通常具有与背景不同的深度信息,结合 RGB 和深度可以更好地区分目标与背景。
  • 如何利用这种相关性

    • 设计联合特征提取网络:利用 RGB 和深度的互补性,设计可以共享或交互特征的网络结构,比如跨模态注意力(Cross-modal Attention)、特征对齐等机制。
    • 利用深度引导 RGB 处理:使用深度信息来调整 RGB 处理,比如通过深度引导注意力机制(Depth-Guided Attention),让 RGB 网络更关注物体的几何结构。
    • 联合学习 RGB-深度特征:利用 Transformer、图神经网络(GNN)等方法,在全局范围内建模 RGB 和深度之间的关系,而不仅仅是局部卷积操作。

示例:

在 RGB-D 显著性检测(RGB-D SOD)任务中,可以:

  • 用深度信息增强 RGB 的边缘特征,因为深度往往在物体边界处有明显变化。
  • 用深度信息提供目标的层次结构,使得前景目标更容易从背景中分离。
  • 设计模态间的特征交互模块,让 RGB 和深度特征在不同尺度上相互补充。

问题三:为了缓解Transformer天然带来的块效应和细节破坏问题什么意思?

为什么 Transformer 会带来块效应和细节破坏?

1.块效应:ransformer 在图像任务中的典型实现(如 ViT、Swin Transformer)通常会 将输入图像划分为固定大小的块(patches),然后独立处理这些块并进行全局建模。但这样会导致:

局部连续性丢失:相邻 patch 之间的联系较弱,导致边缘可能出现不连续或割裂现象。

像素级精细信息丢失:由于 patch 处理是基于块,而不是像素级的连续操作,可能会导致一些小目标或纹理细节无法被充分捕捉。

2.细节破坏:

Transformer 主要依赖 自注意力机制(Self-Attention) 进行全局信息交互,但对于高频纹理、细小结构等信息,可能无法像 CNN 那样精准捕捉和恢复。

由于 Transformer 缺少 CNN 的 平移不变性(Translation Invariance),对于小目标或细节恢复时,可能会导致某些特征变得模糊或消失。

多层 Transformer 可能会对输入进行多次降采样(如 Swin Transformer 的分层结构),进一步造成细节丢失。

3.如何缓解 Transformer 的块效应和细节破坏?

为了弥补这些缺陷,研究者通常会在 Transformer 结构中 引入 CNN 或其他增强机制,例如:

  1. 局部增强模块(Local Enhancement Module)

    • 在 Transformer 结构中引入 CNN,使其具备局部感知能力,增强边缘和细节信息。
    • 例如 Swin Transformer 通过滑动窗口注意力(Shifted Window Attention)减少块效应。
  2. 多尺度特征融合(Multi-scale Feature Fusion)

    • 结合不同尺度的信息,避免由于块划分导致的细节丢失。例如,利用金字塔结构(FPN)增强细节恢复能力。
  3. 引入 CNN 进行后处理(Hybrid CNN-Transformer)

    • 在 Transformer 之后加上 CNN 结构,进行细节恢复和边缘修复。例如,一些方法会在最后阶段添加卷积层,以平滑块边界,提高像素级细节。
  4. 额外的约束机制

    • 例如 全局+局部注意力(Global-Local Attention) 结合 Transformer 的全局感知能力和 CNN 的局部感知能力,避免块效应。

一:简介

问题一:现有的RGB-D显著性目标检测(SOD)方法可分为三类:纯卷积神经网络(CNNs)模型、纯Transformer模型以及Transformer辅助的CNNs模型。?

1. 纯 CNN 模型

代表方法:传统的 RGB-D SOD 方法主要基于卷积神经网络(CNN),通过级联、多尺度特征提取、注意力机制等方式来融合 RGB 和深度信息。

特点:

(1)依赖 CNN 的 局部感知能力平移不变性,对细节和边缘信息较敏感。

(2)采用 多尺度特征融合,利用 FPN(Feature Pyramid Network)、U-Net 等结构增强目标检测能力。

(3)使用 注意力机制(如通道注意力、空间注意力) 来优化 RGB-D 特征交互。

劣势:受限于 CNN 结构的 局部感受野,难以建模全局依赖关系,在长距离依赖关系建模方面存在不足。

典型方法:DMRA(CVPR 2019),JL-DCF(CVPR 2020),BiANet(IJCAI 2020),BBS-Net(ECCV 2020)

2.纯Transformer模型

代表方法:最近的 RGB-D SOD 方法开始使用 Transformer 结构来建模长距离依赖,并捕获全局上下文信息。

特点:

(1)采用 自注意力机制(Self-Attention),可以建模 全局依赖关系,弥补 CNN 的局部感受野限制。

(2)适合处理大尺度目标和长距离关系,比如场景中的远近目标。

劣势:由于 Transformer 采用 patch 分块 机制,可能会导致 块效应(Block Effect),影响细节表现。计算复杂度较高,训练数据需求大,难以在小数据集上训练出良好效果。

典型方法:Trans-SOD(AAAI 2022),TriTransNet(CVPR 2022),HDFNet(AAAI 2022)

3.Transformer 辅助 CNN 模型

代表方法:考虑到 CNN 和 Transformer 各自的优缺点,许多方法采用 CNN + Transformer 结合的混合架构,利用 CNN 提取局部特征,同时使用 Transformer 建模全局依赖,以提高 RGB-D SOD 任务的性能。

特点

(1)CNN 负责提取局部细节信息(如边缘、纹理)。

(2)Transformer 负责捕获全局依赖关系(建模 RGB-D 之间的长距离交互)。

优势:

(1)既能保留 CNN 的细节建模能力,又能结合 Transformer 的长距离依赖建模能力,提升检测精度。

(2)计算复杂度相较于纯 Transformer 更低,同时比纯 CNN 能更好地建模模态间关系。

劣势:仍然需要优化 Transformer 的块效应问题,如引入 局部增强机制

典型方法:LDF(CVPR 2022),DCFM (AAAI 2023),PICR-Net(ACM MM 2023)

问题二:在 基于 Transformer 的模型 中,交叉注意力机制(Cross-Attention) 是一种常见的跨模态交互方法,特别适用于 多模态任务(如 RGB-D、RGB-T、视觉-语言等)。

交叉注意力是一种 特殊的注意力机制,用于 不同模态 之间的信息交互。例如:在RGB-D任务中,

(1)RGB 模态 可以作为 查询(Queries, Q),而 深度模态 作为 键(Keys, K)和值(Values, V)

(2)反过来,也可以用 深度模态 作为查询,RGB 作为键和值。

(3)这样,不同模态之间的信息可以相互作用,从而增强跨模态特征融合能力

4.交叉注意力在 RGB-D SOD 任务中的作用

在 RGB-D 显著性检测任务中,交叉注意力可以用于:

  • 模态对齐:确保 RGB 和深度模态在特征空间对齐,避免信息偏差。
  • 跨模态特征融合:允许 RGB 信息增强深度信息(反之亦然)。
  • 长距离依赖建模:相比于 CNN 的局部卷积,交叉注意力可以捕捉远距离模态间的依赖关系。

二:有关工作

三:提出的方法

3.1 网络概述

问题一:

图2:所提出的PICR-Net的整体框架。首先,将RGB图像和深度图像输入到双流编码器中,以提取相应的多级特征。随后,同一层的特征通过跨模态点感知交互模块进行多维度交互,在这个过程中,之前输出的显著图被用于提取全局引导信息。在网络的末端,卷积神经网络引导优化(CNNR)单元从预训练的VGG16模型中提供具有更高分辨率和更多细节的卷积特征,以优化并输出最终的高质量显著图

一、整体架构概览

PICR-Net是一种基于双模态交互的显著性检测网络,核心思想是通过跨模态关系建模点感知交互,融合RGB与深度图(或热成像)信息。

问题:什么叫做跨模态关系建模?

跨模态关系建模(Cross-modality Relation Modeling)​ 是指在计算机视觉和机器学习中,通过结合不同模态(如RGB图像和深度图像)的特征,建模它们之间的交互关系,从而提升模型对多模态数据的理解和处理能力。

每种模态都有其独特的优势,但也存在局限性(如RGB图像在低光照条件下效果较差,深度图像缺乏颜色信息)。

跨模态关系建模的作用

  1. 信息互补

    • 不同模态之间可以互相补充,弥补单一模态的不足。
    • 例如,RGB图像在低光照条件下效果较差,而深度图像不受光照影响,可以补充缺失的信息。
  2. 提升鲁棒性

    • 通过结合多模态信息,模型可以更好地应对复杂场景(如光照变化、遮挡等)。
    • 例如,在自动驾驶中,结合RGB图像和深度图像可以提高目标检测的准确性。
  3. 增强特征表达

    • 通过关系建模,可以捕捉模态间的依赖关系,生成更丰富的特征表示。
    • 例如,在显著性检测任务中,结合RGB和深度图像可以更准确地定位显著区域。

主要特点:

(1)双分支编码:RGB和深度图独立编码,通过Swin Transformer提取多尺度特征

(2)四级渐进融合:4个阶段(Stage 1-4)的跨模态交互,逐步融合全局与局部特征

(3)混合注意力机制:结合通道注意力(CA)与空间关系建模

(4)多层级监督:通过Black 1-6等中间模块实现多级预测

二、输入预处理阶段

1. 输入规格

  • RGB输入:224×224×3(H×W×C)
  • 深度图输入:224×224×3(通过复制单通道为三通道适配网络)
  • 关键标注
    224x224x3->3136x96 表示将输入图像分割为 ​56×56个patch​(224/4=56),每个patch嵌入为96维向量(3136=56×56)

问题:为什么通过线性变换将48维向量映射为96维嵌入向量?

将 ​48维向量 映射为 ​96维嵌入向量 是 ​Vision Transformer(ViT)​ 等模型中的一个关键步骤,目的是通过线性变换 ​增加特征表达能力,同时为后续的Transformer模型提供合适的输入格式。

问题:Patch Embedding的作用是干嘛?

Patch Embedding 是 ​Vision Transformer(ViT)​ 等模型中的关键步骤,用于将图像转换为适合Transformer处理的序列化输入。

含义:3136:Patch总数(56×56,即224/4×224/4)   96:每个Patch的嵌入维度。

2. Patch Embedding

  • 模块名称:Patch Embedded
  • 功能
    将输入图像分割为4×4的非重叠块(类似ViT),通过线性投影(Linear Vision)生成初始嵌入向量
  • 生成内容
    • RGB分支:3136×96(56×56×96)
    • 深度分支:3136×96
      :3136=56×56,对应原图1/4分辨率特征图

三、四阶段编码与交互(Stage 1-4)​

每个阶段包含模态内特征提取 + ​跨模态交互,层级结构如下:

Stage 1(1/4分辨率)​

  1. Swin Transformer Block

    • 输入:3136×96(56×56网格)

    • 操作:基于窗口的自注意力(窗口大小7×7),局部关系建模

    • 输出:3136×96 → ​784×192​(下采样到28×28,通道数翻倍)

问题:为什么在Stage 1中特征图的尺寸变成了784×192?

  1. Point-aware Interaction

    • 模块名称:Point-aware Interaction

    • 功能
      通过1×1卷积(Conv2D+ReLU)实现跨通道特征重组,公式:

    • 输出:保持尺寸784×192(H/8×W/8×2C)

Stage 2(1/8分辨率)​

  1. Swin Transformer Block

    • 输入:784×192(28×28网格)

    • 输出:196×384(14×14网格,通道再翻倍)

  2. Cross-modality Relation Modeling

    • 模块名称:Ralation Modeling(应为Relation Modeling)

    • 功能
      通过双线性注意力计算RGB与深度特征的跨模态相似度矩阵:

    • 输出:增强后的196×384特征

Stage 3-4(1/16-1/32分辨率)​

  • 操作升级

    • 窗口注意力 → ​移位窗口注意力​(Shifted Window),扩大感受野

    • 引入Channel-wise Attention (CA):动态重标定通道权重
      关键标注
      H/32×H/32×8C 表示最终输出49×768特征(7×7网格,768通道)


四、跨模态融合核心模块

1. 多模态动态注意力(MDAM)​

  • 模块标识:For kition Mode(实际应为Fusion Module)

  • 结构

    • 输入:来自两个模态的同级特征(如Stage 2的196×384)

    • 操作
      ① 通道拼接(Conat) → ② 3×3卷积降维 → ③ 通道注意力(CA)

    • 输出:融合后的196×192特征

2. 残差连接设计

  • 模块标识:Sub-2+(应为Sub-block)

  • 功能
    通过跳跃连接(如箭头)将底层细节特征与高层语义特征结合,防止梯度消失
    数学表达


五、解码与输出阶段

1. 多级预测(Black 1-6)​

  • 模块标识:Black 1, Black 2-6/2-6(应为Decoder Block)

  • 功能

    • 通过反卷积逐步上采样(如Ex 10×168表示10×168特征扩展)

    • 每级输出一个显著性图(S1-S4),用于中间监督

2. 最终输出层

  • 模块标识:Sout

  • 操作

    1. 拼接所有解码层特征(F6, F10等)

    2. 通过1×1卷积 + Sigmoid生成显著性概率图

  • 输出规格:224×224×1(与原图同分辨率)

问题:这个 CNN-induced Refinement Unit 主要用于在深度学习模型中细化特征,以提升显著性目标的检测效果。?

1 结构解析

该模块包含几个关键部分:

1 预训练的VGG网络(VGG Block 1 & 2)

(1)预训练的 VGG 模块用于提取低级特征。

(2)这里采用了 VGG 的前两层(Block 1 和 Block 2)。

(3)这种方式通常用于利用 ImageNet 预训练的特征,提高网络的泛化能力。

2 两个不同尺度的特征图(V_224 和 V_112)

(1)V_224:从 VGG Block 1 提取的特征,尺寸较大(224×224)。

(2)V_112:从 VGG Block 2 提取的特征,尺寸较小(112×112)。

(3)这两个特征图分别进入后续的 BaseConv2d 处理。

3 BaseConv2d 卷积模块

(1)作用:进一步提炼特征,增强局部和全局信息。

(2)该模块可能包含 3×3 或 1×1 的卷积层,用于减少通道数并进行特征变换。

4 CA(注意力机制)

(1)该模块在 V_224 和 V_112 旁边,每个 BaseConv2d 后都附带一个 CA(可能是 Channel Attention 或者 Coordinate Attention)。

(2)作用:强化通道/空间上的重要信息,抑制无关特征,提升特征表达能力。

5 上采样(Up)

由于 V_112 的分辨率较低,需要经过上采样(Up)与 V_224 进行对齐,使得不同尺度的特征可以融合。

6  最终生成 S_out

经过 CNN-induced Refinement Unit 处理的特征最终用于生成显著性预测图 S_out,输出的显著性图更加精细。

3.2 跨模式点感知交互模块

问题一:Point-aware Interaction和​Relative Modeling的作用是什么?

一 Point-aware Interaction 的作用

1 点感知特征交互:在相同空间位置,对RGB特征和深度图特征进行交互,捕捉局部依赖关系。例如:在显著性检测任务中,可以增强显著区域的响应。

2 模态间协同:通过交互机制,结合RGB和深度模态的互补信息,弥补单一模态的不足。例如,RGB图像提供颜色和纹理信息,深度图像提供几何结构信息。

3 增强特征表示:通过点感知交互,生成更丰富的特征表示,提升模型对输入数据的理解能力。

二 Relative Modeling 的作用

1 关系建模:通过 ​关系矩阵(Relation Matrix)​ 建模特征间的全局依赖关系。例如,在图像处理中,可以捕捉像素之间的空间关系。

2 全局上下文信息:引入全局上下文信息,帮助模型更好地理解局部区域的重要性。例如,在显著性检测任务中,可以更准确地定位显著物体。

3 增强特征交互:通过关系建模,增强RGB和深度特征的交互能力,提升模型性能。

三 在图中 Point-aware Interaction 和 Relative Modeling 的应用

1 Point-aware Interaction:

(1)在 ​Stage 1 到 ​Stage 4 中,对RGB特征和深度特征进行点感知交互,捕捉局部依赖关系。

(2)通过 ​Linear Fusion 模块整合交互后的特征,减少冗余信息。

2 Relative Modeling

(1)在 ​Stage 1 到 ​Stage 4 中,通过关系建模模块捕捉特征间的全局依赖关系。

(2)通过 ​Attention 模块加权特征交互,确保模型更关注显著区域。

图3:CMPI模块中的跨模式点感知的RM,其中RGB和深度在同一空间位置和两种模态的全局显著性引导向量都得到充分有效相互作用。

一、框架整体结构

  1. 输入

    • RGB特征 和 ​深度特征 分别从RGB图像和深度图中提取。

    • 全局显著性指导向量(Global Saliency Guidance)​ 通过掩码平均池化(Masked Average Pooling)从两个模态中提取。

问题:全局引导性向量的作用是什么?

  1. 提供全局上下文信息

    • 全局引导性向量通过 ​掩码平均池化(Masked Average Pooling)​ 从上一级解码得到的显著图中提取。
    • 这些向量包含了整个图像的全局显著性信息(如显著区域的位置和分布),为局部特征交互提供了上下文支持。
  2. 增强特征交互的充分性

    • 在跨模态关系建模中,RGB特征和深度特征在相同空间位置进行交互。
    • 全局引导性向量帮助模型更好地理解当前局部区域在整个图像中的重要性,从而增强特征交互的充分性。
  3. 提升交互的高效性

    • 通过引入全局显著性信息,模型可以更高效地聚焦于重要区域,避免在非显著区域浪费计算资源。
    • 例如,在显著性检测任务中,全局引导性向量可以帮助模型更准确地定位显著物体。
  4. 模态间协同

    • 全局引导性向量从RGB和深度模态中分别提取,确保两个模态的全局信息都能被充分利用。
    • 这种协同作用有助于弥补单一模态的不足,提升模型的鲁棒性。
  1. 关系建模(Relation Modeling, RM)​

    • 在相同空间位置,RGB特征和深度特征通过 ​关系矩阵(Relation Matrix)​ 进行交互。

    • 通过 ​注意力机制(Attention Mask)​ 处理关系矩阵,生成融合后的特征表示。

  2. 输出:经过多层处理(Head 1 到 Head n),生成最终的融合特征表示。

问题:掩码平均池化是如何进行的?

掩码平均池化的作用:用于从特征图中提取全局指导性信息,生成全局指导性特征向量,为局部特征交互提供上下文支持。


二、详细模块解释

1. 输入特征

  • RGB特征

    • 从RGB图像中提取的特征,表示为 ​f_r1

  • 深度特征

    • 从深度图中提取的特征,表示为 ​f_d1

  • 全局显著性指导向量

    • 通过掩码平均池化(Masked Average Pooling)从RGB和深度模态中提取,表示为 ​g1 和 ​g2

2. 关系建模(Relation Modeling)​

  • 关系矩阵(Relation Matrix)​

    • 在相同空间位置,RGB特征和深度特征通过关系矩阵进行交互。

    • 关系矩阵的计算公式:其中:

      • QRGB​ 和 KDepth​ 分别表示RGB和深度特征的查询和键向量。

      • d 为特征维度。

问题:在相同空间位置,RGB特征和深度特征如何通过关系矩阵进行交互的?

RGB特征 和 ​深度特征 在相同空间位置通过 ​关系矩阵(Relation Matrix)​ 进行交互,从而实现跨模态特征融合。

一 输入特征

(1)RGB特征:从RGB图像中提取的特征,表示为f_r。

(2)深度特征:从深度图中提取的特征,表示为f_d。

二 关系矩阵的计算

1 查询(Query)、键(Key)、值(Value)向量

查询(Query)、键(Key)、值(Value)向量 是 ​注意力机制(Attention Mechanism)​ 的核心概念,主要用于建模特征之间的关系。

(1)查询向量(Query Vector, Q)

作用:用于“询问”或“检索”信息

来源:通常从当前模态的特征中提取(如RGB特征)

示例:在图像处理中,查询向量可以表示某个像素或区域的特征。

(2)键向量(Key Vector, K)

作用:用于“匹配”查询向量的信息。

来源:通常从另一个模态的特征中提取(如深度特征)。

示例:在跨模态交互中,键向量用于与查询向量计算相似度。

(3)值向量(Value Vector, V)​

作用:用于“传递”信息。

来源:通常与键向量来自同一模态的特征(如深度特征)。

示例:在注意力机制中,值向量是最终传递给查询向量的信息。

二 查询,键,值向量的计算

1 线性变换:通过可学习的权重矩阵对输入特征进行线性变换,生成查询、键、值向量:

其中:fr​ 是RGB特征,fd​ 是深度特征。

2 关系矩阵 :通过查询向量和键向量计算关系矩阵,表示查询和键之间的相似度:

其中:d 是特征维度。Softmax函数用于归一化关系矩阵。

3 加权值向量:使用关系矩阵对值向量进行加权,生成交互后的特征表示:

  • 注意力机制(Attention Mask)​

    • 通过注意力机制对关系矩阵进行加权,生成融合后的特征表示。

    • 注意力机制的计算公式:其中:

      • VDepth​ 表示深度特征的值向量。

3. 多层处理(Head 1 到 Head n)​

  • Head 1 到 Head n

    • 每个Head对关系矩阵进行独立处理,生成多组融合特征。

    • 通过拼接或加权平均,生成最终的融合特征表示。

4. 输出特征

  • 融合特征表示:经过多层处理,生成最终的融合特征表示,用于后续任务(如显著性检测、目标检测)。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2320858.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

python3 -m http.sever 8080加载不了解决办法

解决方法很多,本文设置各种处理方法,逻辑上需要根据你的自身情况选择 我会告诉你遇到这种问题怎么做,根据具体症状处理 如需转载,标记出处 背景: 1。如图 2.。域名访问不了 http://www.meiduo.site:8080/register.ht…

Oracle数据库性能优化全攻略:十大关键方向深度解析与实践指南

文章目录 一、SQL查询优化二、索引优化三、内存管理四、I/O优化五、分区表与分区索引六、并行处理七、统计信息管理八、锁与并发控制九、数据库参数调优十、应用设计优化结论 在当今数据驱动的时代,数据库的性能优化成为了确保企业应用高效运行的关键。Oracle作为业…

windows清除电脑开机密码,可保留原本的系统和资料,不重装系统

前言 很久的一台电脑没有使用了,开机密码忘了,进不去系统 方法 1.将一个闲置u盘设置成pe盘(注意,这个操作会清空原来u盘的数据,需要在配置前将重要数据转移走,数据无价,别因为配置这个丢了重…

【深度学习】【目标检测】【Ultralytics-YOLO系列】Windows11下YOLOV3人脸检测

【深度学习】【目标检测】【Ultralytics-YOLO系列】Windows11下YOLOV3人脸检测 文章目录 【深度学习】【目标检测】【Ultralytics-YOLO系列】Windows11下YOLOV3人脸检测前言YOLOV3模型运行环境搭建YOLOV3模型运行数据集准备YOLOV3运行模型训练模型验证模型推理导出onnx模型 总结…

html5-qrcode前端打开摄像头扫描二维码功能

实现的效果如图所示,全屏打开并且扫描到二维码后弹窗提醒,主要就是使用html5-qrcode这个依赖库,html5-qrcode开源地址:GitHub - mebjas/html5-qrcode: A cross platform HTML5 QR code reader. See end to end implementation at:…

ui_auto_study(持续更新)

通过where python来找到python解释器的安装目录 如果不适配,谷歌浏览器插件可以在这个地址下载对应的驱动 谷歌浏览器驱动下载地址 下载对应的驱动版本,替换原驱动 替换后,可以执行成功 div代表标签 .开头的代表类# 使用class定位元素 …

【nodejs】爬虫路漫漫,关于nodejs的基操

一.下载安装nodejs 官网地址:Node.js — 在任何地方运行 JavaScript 二.下载安装vscode代码编辑器 官网地址:Download Visual Studio Code - Mac, Linux, Windows 三.修改本地脚本策略 1,windowsi 打开电脑设置 2,输入powersh…

常见中间件漏洞攻略-Jboss篇

一、CVE-2015-7501-Jboss JMXInvokerServlet 反序列化漏洞 第一步:开启靶场 第二步:访问该接口,发现直接下载,说明接⼝开放,此接⼝存在反序列化漏洞 http://47.103.81.25:8080/invoker/JMXInvokerServlet 第三步&…

quartz.net条件执行

quartz.net条件执行 在使用Quartz.NET时,你可能需要基于某些条件来决定是否执行一个任务。Quartz.NET本身并不直接支持基于条件执行任务的功能,但你可以通过一些策略来实现这一需求。下面是一些方法来实现基于条件的任务执行: 1. 使用触发器…

docker利用ollama +Open WebGUI在本地搭建部署一套Deepseek-r1模型

系统:没有限制,可以运行docker就行 磁盘空间:至少预留50GB; 内存:8GB docker版本:4.38.0 桌面版 下载ollama镜像 由于docker镜像地址,网络不太稳定,建议科学上网的一台服务器拉取ollama镜像&am…

ccfcsp3302相似度计算

//相似度计算 #include<iostream> #include<set>//不重复 #include<string> using namespace std; int main() {int n, m;cin >> n >> m;set<string>str1;set<string>str2;for(int i0;i<n;i){string s;cin>>s;for(int j0;…

DeepSeek和Kimi在Neo4j中的表现

以下是2个最近爆火的人工智能工具&#xff0c; DeepSeek:DeepSeek Kimi: Kimi - 会推理解析&#xff0c;能深度思考的AI助手 1、提示词&#xff1a; 你能帮我生成一个知识图谱吗&#xff0c;等一下我会给你一篇文章&#xff0c;帮我从内容中提取关键要素&#xff0c;然后以N…

【Java】TCP网络编程:从可靠传输到Socket实战

活动发起人小虚竹 想对你说&#xff1a; 这是一个以写作博客为目的的创作活动&#xff0c;旨在鼓励大学生博主们挖掘自己的创作潜能&#xff0c;展现自己的写作才华。如果你是一位热爱写作的、想要展现自己创作才华的小伙伴&#xff0c;那么&#xff0c;快来参加吧&#xff01…

剑指小米特斯拉:秦L EV上市11.98万起

3月23日&#xff0c;比亚迪王朝网推出全新中级纯电轿车秦L EV&#xff0c;价格区间为11.98万-13.98万元&#xff0c;瞬间火爆市场。 依托e平台3.0 Evo技术赋能&#xff0c;秦L EV以“国潮设计、智能座舱、越级空间、高效安全、高阶智驾”五大核心优势&#xff0c;直击年轻用户痛…

蓝桥杯高频考点——并查集(心血之作)

并查集 TA Can Do What & why learningwhatwhy 原理和结构路径压缩例题讲解题解solution 1&#xff08;50分&#xff09;solution 2&#xff08;100分&#xff09; 按秩(树高)合并按大小合并 TA Can Do What & why learning 从字面意思上来理解就是&#xff0c;合并&a…

Flutter 学习之旅 之 flutter 使用 connectivity_plus 进行网路状态监听(断网/网络恢复事件监听)

Flutter 学习之旅 之 flutter 使用 connectivity_plus 进行网路状态监听&#xff08;断网/网络恢复事件监听&#xff09; 目录 Flutter 学习之旅 之 flutter 使用 connectivity_plus 进行网路状态监听&#xff08;断网/网络恢复事件监听&#xff09; 一、简单介绍 二、conne…

Redisson 分布式锁原理

加锁原理 # 如果锁不存在 if (redis.call(exists, KEYS[1]) 0) then# hash结构,锁名称为key,线程唯一标识为itemKey&#xff0c;itemValue为一个计数器。支持相同客户端线程可重入,每次加锁计数器1.redis.call(hincrby, KEYS[1], ARGV[2], 1);# 设置过期时间redis.call(pexpi…

【STM32】SPI通信外设硬件SPI读写W25Q64

SPI通信协议和W25Q64存储器芯片解读笔记&#xff1a; 【STM32】SPI通信协议&W25Q64Flash存储器芯片&#xff08;学习笔记&#xff09;-CSDN博客 SPI通信外设 SPI外设简介 STM32内部集成了硬件SPI收发电路&#xff0c;可以由硬件自动执行时钟生成、数据收发等功能&…

Spring JDBC Template与事务管理:基于XML与注解的实战指南

摘要 本文深入解析Spring JDBC Template与事务管理的核心技术&#xff0c;结合XML配置与注解方式两种主流方案&#xff0c;通过转账案例完整演示数据库操作与事务管理的最佳实践。文章涵盖JDBC Template的核心用法、事务配置语法、常见问题及性能优化建议&#xff0c;帮助开发…

【Keil5-开发技巧】

Keil5-开发技巧 ■ Keil5利用AStyle插件格式化代码第一步:下载AStyle插件第二步:添加AStyle插件第三步:AStyle插件介绍■ 一键转UTF-8编码■ Keil5利用AStyle插件格式化代码 第一步:下载AStyle插件 AStyle下载 第二步:添加AStyle插件 解压后 astyle-3.6.7-x64 在重命…